KI und ihre Risiken für Demokratie und Jugendmedienschutz

Dr. Jörg Ukrow über die Regulierung von Künstlicher Intelligenz

Claudia Mikat im Gespräch mit Jörg Ukrow

Dr. Jörg Ukrow ist geschäftsführendes Vorstandsmitglied des Instituts für Europäisches Medienrecht (EMR) und gewählter stv. Direktor der Medienanstalt Rheinland-Pfalz. Sein Gutachten für die Kommission für Jugendmedienschutz (KJM) Kinder- und Jugendmedienschutz und Künstliche Intelligenz – Herausforderung für den Jugendmedienschutz-Staatsvertrag (JMStV)? Stand und Reformüberlegungen unter besonderer Beachtung generativer KI und unter Berücksichtigung des geplanten Gesetzes über künstliche Intelligenz der EU ist demnächst auf der Webseite der Kommission für Jugendmedienschutz (KJM) abrufbar.

Online seit 18.01.2024: https://mediendiskurs.online/beitrag/ki-und-ihre-risiken-fuer-demokratie-und-jugendmedienschutz-beitrag-772/

 

 

Am 8. Dezember 2023 haben sich EU-Parlament und Rat der EU auf den AI-Act geeinigt. Es gab viel Zustimmung, aber auch viel Kritik am Kompromiss wegen zu großzügiger Ausnahmeregelungen in den Bereichen Predictive Policing und biometrische Erkennung. Wie ist Ihr Eindruck zu dem neuen KI-Regelwerk?

Man kann den AI-Act derzeit noch nicht valide einschätzen, denn wir haben nur Presseerklärungen von Teilnehmern an den Verhandlungen dazu, aber noch keine finalisierten Texte – einschließlich der für die Auslegung bedeutsamen Begründungen zu den Normen, der sogenannten Erwägungsgründe. Es gab am 8. Dezember 2023 eine politische Grundsatzverständigung, und dieses Signal, dass die EU die erste internationale Organisation ist, die hier ein rechtsverbindliches Regelwerk für KI verabschiedet, ist, glaube ich, allen Handelnden in besonderer Weise wichtig gewesen. Das hat auch noch kein Staat in dieser Form geschafft. Nun kommt es darauf an, das Ganze in die entsprechende Rechtsform zu gießen. Bei anderen Rechtsakten der EU hat sich gezeigt, dass es sich durchaus ein bisschen ziehen kann, bis aus einer politischen Einigung im Trilogverfahren Texte entstehen, die im Amtsblatt der EU in den verschiedenen Sprachfassungen parallel veröffentlicht werden. Am Ende spielt eine Rolle, wie diese Sprachfassungen aussehen werden und wie die eine Passage im Lichte der anderen zu verstehen ist. Hier steckt juristisch der Teufel – oder vielleicht auch der Engel – im Detail.
 

Terminator 2: Judgment Day (Rotten Tomaetos Classic Trailer, 26.07.2019))



In Ihrem Buch Künstliche Intelligenz als Herausforderung für die positive Medienordnung verdeutlichen Sie grundsätzliche Fragen zur Regulierung von KI anhand von filmischen Beispielen. In Terminator 2 beschützt der originale Terminator alias Arnold Schwarzenegger den Retter der Menschheit, John Connor, im Kampf gegen die Maschinen und tritt als der Gute gegen den bösen Roboter T‑1000 an. Steht das Beispiel dafür, dass KI positiv wirken, aber auch missbraucht werden kann?

Ja, KI ist aus regulatorischer Sicht ein Phänomen mit zwei Gesichtern. Auf der einen Seite stellen sich große Herausforderungen in Bezug auf die exorbitante Geschwindigkeit von Fortschritten, insbesondere in der Rechenleistung, und mit Blick auf die Beherrschbarkeit dieser Technologie. Auf der anderen Seite kann KI zum Beispiel auch genutzt werden, um zu prüfen, inwieweit die Flut von Informationen im Netz mit Vorgaben nicht zuletzt auch des deutschen Jugendmedienschutzrechtes in Einklang steht. Mit KIVI, einem Modell, das in Nordrhein-Westfalen entwickelt worden ist, nutzen die Medienanstalten heute schon diese Technologie, um dieses Mengenproblem zu bewältigen; andere Modelle sind in Bearbeitung. Insofern ist KI janusköpfig – sie kann Problemlagen, die durch KI entstehen, auch abfedern.

Sie befürchten, dass generative KI die Grundpfeiler der Demokratie, ein diskriminierungsfreies Miteinander, unterhöhlen könnte. Was ist das Disruptive an KI?

Das Disruptive an KI ist, dass Ausspielwege für Informationen und Meinungen befördert werden, die Filterblasenphänomene stützen. Wenn KI imstande ist, zu erkennen, welche Interessenlage Nutzende mitbringen, und darauf aufbauend und mithilfe von algorithmisch gesteuerten Auswahlprozessen nur noch solche Informationen weiterleitet, die das entsprechende Weltbild stützen, auch wenn es noch so verquer ist, dann wird KI zu einer Art Brandbeschleuniger. Demokratischer Diskurs braucht einen gesamtgesellschaftlichen Kommunikationsraum, in dem unterschiedliche Meinungen aufeinanderprallen können. Wenn ich als Rezipient immer nur das Gleiche zugeleitet bekomme, fördert das nicht den gesamtgesellschaftlichen Diskurs, sondern die Entstehung von Teilöffentlichkeiten. Und das kann aus demokratischem Blickwinkel – aber auch mit Blick auf Heranwachsende und ihr Recht auf Entwicklung zu einer gemeinschaftsfähigen Persönlichkeit – ein erhebliches Problem darstellen. Denn demokratische Gemeinschaftsfähigkeit setzt auch die Befähigung zum demokratischen Diskurs und Streit voraus.


Wenn ich als Rezipient immer nur das Gleiche zugeleitet bekomme, fördert das nicht den gesamtgesellschaftlichen Diskurs, sondern die Entstehung von Teilöffentlichkeiten.


Welche Ansatzpunkte für eine Regulierung sehen Sie mit Blick auf die mögliche Entstehung von Teilöffentlichkeiten?

In unserer freiheitlich-demokratischen Grundordnung und auch in der Verfassungsordnung der EU ist der Gedanke prägend, dass sich eine Gesellschaft mit bestimmten neuen Fragestellungen durch den Austausch von Argumenten auseinandersetzt und dass sich in einem demokratischen Prozess das bessere Argument am Ende durchsetzt. Regulierung kann das befördern, indem sie Einfluss auf die algorithmisch gesteuerten Such- und Auswahlprozesse nimmt. Ansonsten besteht das Risiko, dass man nur noch mit solchen Meinungen konfrontiert wird, die den bisherigen Suchen und der bisherigen Auswahl strukturell gleichen. Wenn man aus welchen Gründen auch immer zwei- oder dreimal im Netz zum Beispiel nach einer rechtsextremistischen Partei gesucht hat, dann sollte das nicht dazu führen, dass man im Anschluss bei Suchanfragen nur Antworten erhält, die einem rechtsextremistischen Welt- und Menschenbild entsprechen.

Anbieter müssten verpflichtet werden, bestimmte algorithmische Verknüpfungen zu unterlassen?

Was die Vorprägungen der Beantwortung von Suchanfragen betrifft sollte man zumindest die Chance haben, immer wieder bei Null anfangen zu können, wenn man das möchte. Wenn jemand nur noch bestimmte Antworten bekommen will, ist das etwas anderes, aber eine Auswahlmöglichkeit aus einem vielfältigen Meinungsspektrum sollte nicht von vornherein beschränkt werden. Es geht darum, die Offenheit in Bezug auf das Material, mit dem man im Rahmen eines Auswahlprozesses konfrontiert wird, periodisch immer wieder aufs Neue herzustellen und zu verhindern, dass bisheriges Suchverhalten in eine dauerhafte Verengung des Blickwinkels mündet. Da sehe ich die Pflichten bei den Anbietern, aber auch bei den Entwicklern von KI, Freiheit zur Änderung der eigenen Meinung und Vielfalt im gesellschaftlichen Meinungskorridor by design zu gewährleisten.
 

2001: A Space Odyssey (Warner Bros. Pictures, 20.04.2018)



Zum Stichwort Fehleranfälligkeit wählen Sie in Ihrem Buch das Beispiel 2001: Odyssee im Weltraum. In dem Film nimmt das Computersystem HAL für sich in Anspruch, niemals Fehler zu begehen, will dann aber die ganze Besatzung der Discovery auslöschen, um die Mission nicht zu gefährden. Was ist aus regulatorischer Sicht daran dramatisch? Geht es um Bias-Effekte aufgrund fehlerhafter Trainingsdatensätze?

Mit Blick auf das, was KI heutzutage bereits im Bereich Desinformation zu leisten vermag, ist es nicht ganz abwegig, dass eine KI eine eigene Persönlichkeit und ein Bewusstsein der eigenen Fehleranfälligkeit entwickelt. In diesem Moment könnte sie die eigene Fehleranfälligkeit auch leugnen oder sich gegen Personen wenden, die sie zum Gegenstand machen, zum Beispiel mit entsprechenden Desinformationskampagnen. Bias-Effekte sind vorgelagert, dadurch entstehen Fehler. Die fast spannendere Frage ist, wie die KI mit diesen Fehlern umgeht. Ist KI bereit, solche Fehler als nicht nur menschlich, sondern auch einer Maschine inhärent zu akzeptieren? Oder entwickelt KI möglicherweise Strategien, um diesem Eindruck, sie sei ihrerseits auch fehleranfällig, gegenzusteuern?

Welche Maßnahmen könnten dazu beitragen, die Fehleranfälligkeit von KI zu minimieren?

Zentral sind Transparenzpflichten, um zum Beispiel Verengungen und Diskriminierungen im Datenmaterial, das der Entwicklung von KI zugrunde liegt, erkennen zu können. Transparenzvorgaben erhöhen außerdem Selbstreflexion und Selbstkontrolle der Beteiligten, weil niemand als jemand dastehen möchte, der Diskriminierung by design befördert.

Diskriminierung durch und Diskriminierung von KI sind die Stichworte beim Beispiel Blade Runner – ein Film, der um Sympathie für Maschinenmenschen, die sogenannten Replikanten, wirbt und ethische Fragen zum Umgang mit künstlichen Existenzen aufwirft. Halten Sie es für wahrscheinlich, dass KI ein menschenähnliches Bewusstsein entwickelt?

Das kann man meines Erachtens nicht valide ausschließen. Im gegenwärtigen Diskurs in der KI-Forschung stellen manche von vornherein in Abrede, dass KI so etwas wie ein Bewusstsein entwickeln könnte, andere sind offener in der Risikobewertung. Wir haben keine hinreichende Kenntnis, was sich in dieser Blackbox alles ereignet und welche Konsequenzen das hat. In einer solchen Situation der Unsicherheit gibt es auch rechtliche Parameter, die möglicherweise eine Orientierungsmarke mit Blick auf die Regulierung von KI sein können. Aus der Rechtsprechung des Bundesverfassungsgerichts, zum Beispiel auch im Zusammenhang mit Fragen der Atomtechnologie, ergibt sich, dass eine Technologie, die zu apokalyptischen Ergebnissen führen kann, deutlich intensiver zu regulieren ist, als wenn ein solches Risiko nicht existiert.
 

Blade Runner (Rotten Tomaetos Classic Trailer, 28.01.2014)



In Ihrem Buch stellen Sie eine Analogie zum Tierschutz her – sehen Sie Regulierungsbedarf, um KI vor dem Menschen zu schützen?

Das ist ein spannendes grundrechtsdogmatisches Problem, in welchem Umfang der klassische Bereich von Grundrechten möglicherweise erweitert werden muss. Der Tierschutz war lange überhaupt kein Thema, inzwischen haben wir eine Entwicklung hin zum Tierschutz als Staatsaufgabe. Zunehmend werden in der rechtlichen Diskussion Stimmen laut, dass auch Tiere als Geschöpfe einzustufen sind, die über eine eigene Rechtsposition verfügen. KI ist ein relativ junges Phänomen, aber ich will nicht ausschließen, dass eine ähnliche Debatte auch irgendwann in Bezug auf KI geführt wird. Wenn man der Auffassung ist, dass KI über kein eigenes Bewusstsein verfügt, bedarf es einer solchen Debatte nicht. Wenn man aber mit Blick auf die technologischen Entwicklungsfortschritte der Auffassung ist, dass KI möglicherweise früher als gedacht über etwas Vergleichbares wie menschliches Bewusstsein verfügen kann, dann muss man sich der Frage zuwenden, inwieweit entsprechende Schutzkorridore zu integrieren sind.

Warum ist KI auch eine Aufgabe des Jugendmedienschutzes und welche neuen Problemfelder ergeben sich?

Jugendmedienschutz befasst sich heute nicht mehr allein mit den klassischen Inhalterisiken, sondern es werden auch Interaktionsrisiken in den Blick genommen, die die Entwicklung von Kindern und Jugendlichen zu einer gemeinschaftsfähigen Persönlichkeit beeinträchtigen können. Mit KI kommen weitere Risiken hinzu. Zum einen besteht ein nicht unerhebliches Risiko, dass sich der gesamtgesellschaftliche demokratische Diskurs durch KI verengt, und dieses Risiko berührt natürlich auch die Demokratiefähigkeit von Kindern. Je zersplitterter der demokratische Diskurs wird, umso schwieriger wird es für Kinder und Jugendliche, ihre demokratischen Teilhaberechte, die sie nach der Verfassungsordnung genießen, auch zu leben. Ein zweiter Aspekt ist, dass KI Phänomene wie Fake-Inhalte verschärft, die eine Trennung von Realität und Fiktion erschweren. Der dritte Punkt ist die Verstärkung von Interaktionsrisiken in Bezug auf die Verbreitung von Inhalten durch KI, weil bisherige klassische Steuerungen dieser Verbreitungs- und Verteilungsprozesse ausgehebelt werden könnten.
 


Je zersplitterter der demokratische Diskurs wird, umso schwieriger wird es für Kinder und Jugendliche, ihre demokratischen Teilhaberechte […] auch zu leben.



Der Jugendschutz ist im AI-Act nicht expressis verbis adressiert wie das bei der AVMD-Richtlinie und beim DSA der Fall ist. Aber der Kinder- und Jugendschutz ist natürlich immer auch im Blick, weil das gesamte Regelwerk darauf ausgerichtet ist, die Grundrechte innerhalb der EU auch mit Blick auf diese technologischen Entwicklungsprozesse zu schützen. Und zu den Grundrechten zählen eben auch die Grundrechte von Kindern und Jugendlichen, wie sie in der Grundrechtecharta der EU festgelegt sind.
 

Dr. Jörg Ukrow ist geschäftsführendes Vorstandsmitglied des Instituts für Europäisches Medienrecht (EMR) und stv. Direktor der Medienanstalt Rheinland-Pfalz.

Claudia Mikat ist Geschäftsführerin der Freiwilligen Selbstkontrolle Fernsehen (FSF).