Gehört den Algorithmen die Zukunft im Jugendmedienschutz?

Freiwillige Selbstkontrolle Fernsehen (FSF)

Im April 2019 feierte die Freiwillige Selbstkontrolle Fernsehen (FSF) ihr 25-jähriges Bestehen. Aus diesem Anlass wurden Expertinnen und Experten aus dem Umfeld der FSF, aus Politik, Medienwissenschaft und Pädagogik zu dem aktuellen Medienwandel und den zukünftigen Aufgaben des Jugendmedienschutzes befragt:

Zurzeit werden Selbstklassifizierungssysteme für filmische Inhalte entwickelt, um Aufwand und Kosten zu senken und die Masse an Angeboten in den Griff zu bekommen. Ist die Prüfung in Ausschüssen und Sachverständigengremien am Ende? Kann eine algorithmenbasierte Anbieterkennzeichnung einen Verwaltungsakt begründen?

Online seit 29.03.2019: https://mediendiskurs.online/beitrag/gehoert-den-algorithmen-die-zukunft-im-jugendmedienschutz/

Vollständiger Beitrag als:


 

Kein Algorithmus wird einen Verwaltungsakt ausstellen können, aber er kann natürlich ein probates Hilfsmittel sein bei der Altersklassifizierung. Es muss gesichert sein, dass in Zweifelsfällen Menschen differenziert beurteilen und auch Gestaltungsspielraum haben. Man muss Selbstklassifizierung klug mit einer systemischen Aufsicht und Berufungsinstanzen verzahnen. Dafür müssen wir nicht das Rad neu erfinden, sondern können auf unsere guten und klugen Strukturen und Verfahren aufsetzen.

Stefan Haddick, Referent im Bundesministerium für Familie, Senioren, Frauen und Jugend (BMFSFJ), Abteilung „Jugendschutzgesetz, Kinder-und Jugendmedienschutz, Aufwachsen digital“

 


 

Ich glaube, dass eine algorithmenbasierte Kennzeichnung bei den meisten Inhalten sinnvoll ist. Aber der Algorithmus muss so programmiert sein, dass er bei „knappen“ Entscheidungen eine Rückmeldung gibt, sodass man den Inhalt in einen Ausschuss geben muss.

Birgit Guth, Leiterin der Medienforschung bei SUPER RTL

 


 

Ich setze zwar große Hoffnung in die Entwicklung von algorithmenbasierten Kennzeichnungssystemen, sehe aber gleichermaßen noch Herausforderung im Einsatz von Algorithmen und Künstlicher Intelligenz: Mit welchen Daten werden diese Systeme gefüttert? Auf der Basis welcher Werte und Normen wird entschieden? Erreichen wir damit tatsächlich höhere Vergleichbarkeiten von Entscheidungen, die weniger anfechtbar sind als die von „echten Menschen“? Auf dem Weg zu diesen technischen Lösungen gilt es aus meiner Sicht zunächst, die Zusammensetzung von Gremien hinsichtlich Alter und Erfahrungshorizont zu überprüfen, aber auch bezüglich der Repräsentativität der Bevölkerung: Sind Menschen mit Migrationserfahrung vertreten? Wie relevant sind noch bestimmte Institutionen und Interessenverbände? Diverse Perspektiven ermöglichen erst einen guten Aushandlungsprozess von Prüfnormen und Spruchpraxis – und dieser Diskurs sollte dann die Basis für das Deep Learning der Algorithmen darstellen.

Dr. Anna Grebe, Leiterin des Initiativbüros Gutes Aufwachsen mit Medien

 


 

Das Gremienprüfverfahren auf Grundlage des Jugendschutzgesetzes (JuSchG) führt zu dem seit vielen Jahren erfolgreichen System der Alterskennzeichnung. Dabei spiegeln die Prüfungen in Ausschüssen auch gesellschaftliche und individuelle Normen und Wertvorstellungen wider. Pluralität muss sich daher auch abbilden, wenn zukünftig vermehrt technische, auf Algorithmen basierende Altersbewertungen erfolgen. Ein moderner Jugendmedienschutz schließt beide Systeme mit ein.

Nicole Müller, Leiterin des Referats „Jugendschutz, Jugend und Medien“ im Ministerium für Familie, Frauen, Jugend, Integration und Verbraucherschutz Rheinland-Pfalz

 


 

Algorithmenbasierte Selbstklassifizierung ist zwar eine nette Spielerei, kann aber die Fachkompetenz in Ausschüssen und Sachverständigengremien nicht ersetzen. Denn auch, wenn von der Medienindustrie die Rede ist, werden weder Filme noch Serien und Shows industriell hergestellt, sondern bewegen sich in einem Spannungsfeld von Genrekonventionen und hochindividueller Erzählung und Inszenierung. Dieses Spannungsfeld können Algorithmen nicht erkennen und nicht abbilden.

Dr. Lothar Mikos, Professor für Fernsehwissenschaft an der Filmuniversität Babelsberg KONRAD WOLF

 


 

Die Freiwillige Selbstkontrolle der Filmwirtschaft (FSK) entwickelt derzeit ein Selbstklassifizierungssystem für filmische Inhalte. Mit dem webbasierten System sollen Rechteinhaber die Möglichkeit erhalten, valide, rechtssichere Altersklassifikationen für filmische Inhalte zu erhalten – sehr schnell sowie zeit- und ortsunabhängig.
Die Testergebnisse der FSK zeigen, dass ein intelligent gestaltetes Selbstklassifizierungssystem beides kann: Es kann sowohl den hohen Standard der FSK-Altersfreigaben sicherstellen, als auch das Verfahren deutlich beschleunigen. Voraussetzung hierfür ist ein auf der jahrzehntelangen Spruchpraxis der Prüfausschüsse aufbauender Fragebogen und ein entsprechend ausgereifter Bewertungsalgorithmus.
Das Klassifizierungstool muss jedoch – genau wie die Spruchpraxis in den Prüfausschüssen – kontinuierlich weiterentwickelt werden, um neue mediale Inhalte und Problemstellungen richtig zu erfassen. Sachverständigengremien sind für diese Aufgabe unverzichtbar.

Stefan Linz, Geschäftsführer der Freiwilligen Selbstkontrolle der Filmwirtschaft (FSK)

 


 

Dass Selbstklassifizierungssysteme die bessere Alternative sind, ist eine Hypothese, die noch nicht bewiesen ist. Das wird sich zeigen. Für mich interessant ist diese Frage immer erst, wenn es zum Schwur kommt. Was passiert, wenn es mal nicht passt und wer tut dann eigentlich was? Meine Überzeugung ist: Solange Industrie eigenverantwortlich handelt, ist das wunderbar. Es muss aber eine Interventionsmöglichkeit geben, sollte sie es jemals aus unerfindlichen Gründen nicht tun. Wie ich schon sagte: Das Schutzgut selbst verträgt keine Disponibilität.

Dr. Tobias Schmid, Direktor der Landesanstalt für Medien NRW