Territoriale Regeln für das globale Netz

Prüfungen auf der Grundlage des NetzDG

Claudia Mikat, Lea Gangloff im Gespräch mit Martin Drechsler

Die Freiwillige Selbstkontrolle Multimedia-Diensteanbieter (FSM) ist seit 2005 eine durch die Kommission für Jugendmedienschutz (KJM) anerkannte Einrichtung der Freiwilligen Selbstkontrolle nach dem Jugendmedienschutz-Staatsvertrag (JMStV). Seit Januar 2020 ist der Verein auch als Selbstregulierung nach dem Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken (Netzwerkdurchsetzungsgesetz [NetzDG]) anerkannt, das von Anfang an sehr umstritten war. Seit März 2020 finden erste Prüfungen statt. Martin Drechsler, Geschäftsführer der FSM, gab kurz vorher Auskunft zum neuen Prüfverfahren und zu den Problematiken des NetzDG.

Printausgabe tv diskurs: 24. Jg., 2/2020 (Ausgabe 92), S. 40-42

Vollständiger Beitrag als:

Die FSM führt demnächst die ersten Prüfungen nach dem NetzDG durch. Mit was für Prüfgegenständen ist zu rechnen?

Wenn Beschwerden eingehen, setzen sich die Prüfstellen der Netzwerke zunächst selbst damit auseinander und entscheiden, ob es sich um offensichtlich rechtswidrige Fälle handelt oder nicht. Nur bei Unsicherheit werden die entsprechenden Grenzfälle an die FSM weitergeleitet. Rechtswidrig nach dem NetzDG sind Inhalte, die gegen bestimmte Vorgaben des Strafgesetzbuches verstoßen. Das sind im Bereich der sozialen Netzwerke vor allem Beiträge mit Gewaltdarstellungen, Darstellungen des sexuellen Missbrauchs von Kindern oder die Verbreitung von Propagandamitteln verfassungswidriger Organisationen. Für unsere Arbeit rechne ich vor allem mit Fragen aus dem Bereich der Volksverhetzung, der Äußerungsdelikte, z.B. Verleumdung und üble Nachrede, und der Aufforderung zu Straftaten oder deren Androhung.

Wie sind diese Prüfungen der FSM organisiert?

Wichtig ist, dass die Prüfungen nicht durch die Mitarbeiterinnen und Mitarbeiter der FSM-Geschäftsstelle durchgeführt werden. Die Entscheidungen fällen externe Prüfausschüsse mit jeweils drei Mitgliedern. Insgesamt stehen dafür 50 juristische Expertinnen und Experten zur Verfügung. Nach einem genau vorgegebenen System werden jede Woche zwei Prüfausschüsse gebildet. Sie haben für eine Entscheidung dann maximal sieben Tage Zeit – so sieht es das NetzDG vor.

Sitzen die Prüferinnen und Prüfer in Ausschüssen zusammen, sind sie online in Kontakt oder erfolgt der Austausch lediglich indirekt?

Unsere Prüferinnen und Prüfer kommen aus allen Ecken des Landes. Wegen des engen Zeitplans wird es in aller Regel nicht möglich sein, dass sie persönlich zusammenkommen. Wir haben aber mit unseren Jugendschutzprüfausschüssen gute Erfahrungen mit der Bewertung von Onlineinhalten im Umlaufverfahren. Die Sichtung des Materials wird deshalb eher individuell erfolgen. Die Einschätzungen werden anschließend beispielsweise in einer Telefon- oder Videokonferenz diskutiert, und der Ausschuss trifft – notfalls per Mehrheitsbeschluss – eine Entscheidung. Der oder die Vorsitzende eines jeden Prüfausschusses hat dann die Aufgabe, diese Entscheidung und die gemeinsam abgestimmte Begründung schriftlich festzuhalten. Das wird so ähnlich aussehen, wie wir das von gerichtlichen Entscheidungen kennen, mit einer kurzen Zusammenfassung des Sachverhalts und einer ausführlichen Begründung. Die schriftlichen Entscheidungen werden dann in anonymisierter Form auf der Website der FSM veröffentlicht.

Was geschieht, wenn Inhalte als rechtswidrig eingeschätzt werden?

Die Plattformen müssen sich an die Entscheidungen des Prüfgremiums halten und dafür sorgen, dass als rechtswidrig eingestufte Inhalte in Deutschland nicht mehr verfügbar sind.

Können sie in anderen Ländern, z.B. in den Niederlanden, dann noch abgerufen werden?

Wir prüfen auf der Grundlage des deutschen Rechts. Weil die Rechtslage in anderen Ländern davon abweichen kann, können wir von den sozialen Netzwerken nicht verlangen, dass sie unsere Entscheidungen weltweit umsetzen. Dies ist aber nichts Besonderes und wird in zahlreichen Onlinediensten so gehandhabt. Durch technische Maßnahmen sorgen die Plattformbetreiber dann dafür, dass Nutzerinnen und Nutzer die nach unserem Recht unzulässigen Inhalte nicht sehen können. Selbstverständlich wird es aber auch Inhalte geben, die generell nicht angeboten werden dürfen und deshalb auch global entfernt werden. Dies zu prüfen, liegt jedoch in der Verantwortung der Anbieter.
 


In den Kommentarfeldern der sozialen Medien werden teilweise üble Botschaften verbreitet, die beispielsweise im Fernsehen niemals ausgestrahlt würden.



Warum war das NetzDG überhaupt nötig?

Schon seit vielen Jahren werden Debatten über Hasskommentare im Netz geführt. In den Kommentarfeldern der sozialen Medien werden teilweise üble Botschaften verbreitet, die beispielsweise im Fernsehen niemals ausgestrahlt würden. Nun sorgt das NetzDG gerade nicht dafür, dass mehr oder andere Inhalte verboten sind. Das Ziel des Gesetzes ist es vielmehr, Betreiber sozialer Netzwerke zu bestimmten organisatorischen Maßnahmen beim Umgang mit Nutzermeldungen über rechtswidrige Inhalte zu verpflichten. Die Festlegung und Sicherstellung von Bearbeitungsfristen ist dabei ein wesentliches Element. Außerdem müssen die Anbieter transparent darüber berichten, wie sie mit diesen Meldungen umgehen. Sie müssen zweimal im Jahr erläutern, wie sie die Kontrollen organisieren und welche Anstrengungen sie unternehmen. Außerdem müssen die Anzahl der eingegangenen Beschwerden und die jeweils getroffenen Maßnahmen festgehalten werden. Zudem wird die Zeit zwischen Beschwerdeeingang und Löschung dokumentiert. Diese Berichtspflicht kann dabei helfen, dass wir alle ein besseres, objektiveres Bild davon bekommen, welche Dimension das Problem strafbarer Hassinhalte im Netz überhaupt hat.

Häufig wird kritisiert, dass das Gesetz einen zu starken Einschnitt in die Meinungsfreiheit bedeutet. Ist diese Kritik berechtigt?

Die Befürchtung ist, dass Unternehmen im Zweifelsfall lieber „zu viele“ Inhalte löschen. Damit würden sie Zeit und Aufwand sparen und ein mögliches Bußgeld umgehen. Das könnte aber auch bedeuten, dass kritische Inhalte aus übertriebener Vorsicht gelöscht werden und somit immer weniger werden könnten. Im schlimmsten Fall könnte das voreilige Löschen zu einem Rückgang von Meinungsäußerungen führen, weil die „ja sowieso gelöscht werden“. Ob dies tatsächlich der Fall ist, ist nur sehr schwer zu überprüfen. Mein Eindruck ist, dass diese Befürchtung unberechtigt ist und die Anbieter sich – ganz im Gegenteil – eher dafür entscheiden, Inhalte im Zweifel gerade nicht zu löschen.
 


Die Plattformen haben grundsätzlich nur 24 Stunden Zeit, um einen gemeldeten Inhalt zu überprüfen.



Wie könnte verhindert werden, dass Plattformen unnötig viele Inhalte löschen?

Die Plattformen haben grundsätzlich nur 24 Stunden Zeit, um einen gemeldeten Inhalt zu überprüfen, denn wenn dieser offensichtlich rechtswidrig ist, muss er innerhalb dieser Frist gelöscht werden. Mehr Zeit steht nur zur Verfügung, wenn die erste Prüfung keine solche Offensichtlichkeit ergibt. Wir wissen, dass viele Entscheidungen alles andere als banal sind und teilweise zusätzliche Recherche erfordern. Während es grundsätzlich richtig und auch erforderlich ist, dass Nutzermeldungen zügig bearbeitet werden, kann dieser Zeitdruck natürlich auch zu vorschnellen Entscheidungen führen. Dieses Dilemma ist nur schwer zu lösen. Ein konstruktiver Ansatz dafür ist nun die Einbeziehung der FSM als Einrichtung der Regulierten Selbstregulierung. Wir wollen den Unternehmen die Entscheidungslast in kontroversen, komplexen, neuartigen Fällen abnehmen und mit einem von spezialisierten Expertinnen und Experten erarbeiteten Votum transparent machen, ob eine Löschung von Inhalten wirklich nötig ist.
 

Martin Drechsler ist Geschäftsführer der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM).

Lea Gangloff studiert Literatur und Medien im Masterstudiengang.

Claudia Mikat ist Geschäftsführerin der Freiwilligen Selbstkontrolle Fernsehen (FSF).