„Hate Speech ist ein Warnsignal!“

Christina Heinen im Gespräch mit Anatol Stefanowitsch

„Hass ist keine Meinung“, heißt es auf der Website no-hate-speech.de, einer von zahlreichen Initiativen gegen Hetze in den sozialen Medien. Stimmt das? Und falls ja, wo liegen dann die Grenzen dessen, was keine zulässige Meinungsäußerung mehr sein soll? Über die verletzende Kraft von Hate Speech und die Schwierigkeiten, diese zu regulieren oder eine wirksame Gegenrede zu organisieren, sprach tv diskurs mit Dr. Anatol Stefanowitsch, Sprachwissenschaftler und Professor für Englische Philologie an der Freien Universität Berlin. Stefanowitsch gründete 2007 den ersten deutschsprachigen Sprachwissenschaftsblog, den Bremer Sprachblog. Er gilt als Experte dafür, wie sich Diskriminierung über Sprache vermittelt.

Printausgabe tv diskurs: 21. Jg., 2/2017 (Ausgabe 80), S. 30-35

Vollständiger Beitrag als:

Was verstehen Sie unter Hate Speech? Ist damit jede Form von verbaler Aggression gemeint?

Hate Speech ist in der Diskussion in Deutschland ein relativ neuer Begriff. Er entspricht in etwa dem, was im juristischen Bereich die Volksverhetzung ist. Er bezeichnet die Verunglimpfung, Herabwürdigung oder auch den Aufruf zu Gewalt oder Vernichtung von Angehörigen bestimmter Bevölkerungsgruppen. Das unterscheidet Hate Speech von Beleidigungen, die auf ein Individuum abzielen. Im Zusammenhang mit Hate Speech spielt der Begriff der Bevölkerungsgruppe eine zentrale Rolle. Damit ist eine Gruppe gemeint, die aufgrund bestimmter Merkmale entweder tatsächlich erkennbar ist oder die als Gruppe dargestellt wird, wie es z.B. der Fall ist, wenn von „den Flüchtlingen“ gesprochen wird. „Die Flüchtlinge“ haben erst einmal wenig miteinander gemein, teilweise nicht einmal ihren rechtlichen Status. Der Begriff der Flüchtlinge wird von denjenigen, die Hate Speech in den sozialen Medien und anderswo produzieren, so weit gefasst, dass teilweise auch Leute dazu zählen, die einfach nur anders aussehen.

Das ist interessant, weil sich daran abzeichnet, wie sich über Sprache Diskriminierung vermittelt: Man wird als Teil einer bestimmten Gruppe angesprochen, als deren Angehöriger man sich vorher vielleicht gar nicht gesehen hat. Es findet damit die Festlegung auf eine kollektive Identität statt, die man so möglicherweise nicht will.

Genau! Und das Interessante daran ist, dass durch Hate Speech die Gruppe mitunter überhaupt erst sprachlich konstruiert wird. Daran lässt sich auch ein Unterschied zum juristischen Tatbestand der Volksverhetzung festmachen, der damit zwar verwandt, aber nicht identisch ist. Klagen wegen Volksverhetzung scheitern häufig daran, dass es sich nicht um eine tatsächlich existierende Gruppe handelt. Im rechtlichen Sinne muss es eine objektiv definierbare Gruppe sein, gegen die sich der Hass oder der sprachliche Vernichtungswille richtet, sonst kann es nicht unter diesem Paragrafen verhandelt werden. „Flüchtlinge“ ist als Begriff in diesem Zusammenhang der Volksverhetzung insofern schwierig, weil es sich eben nicht um eine Bevölkerungsgruppe im engen juristischen Sinne handelt.

Der Straftatbestand der Volksverhetzung markiert als Absolutverbot eine Grenze der Meinungsfreiheit und setzt als solche auch eine deutliche Verletzungsintensität voraus, die nicht bei jeder sexistischen oder rassistischen Äußerung gegeben ist. Wenn ich Sie richtig verstehe, ist das bei Hate Speech genauso?

Man findet in der Debatte um Hate Speech häufig eine Begriffsverwirrung, bei der zwischen Hate Speech und Mobbing gar nicht mehr unterschieden wird. Wenn ich aufgrund meiner persönlichen Meinung oder irgendwelcher individueller Eigenschaften in den sozialen Medien verunglimpft werde, dann ist das kein Hate Speech. Wenn jemand sagt: „Stefanowitsch, der Glatzkopf“, dann ist das kein Hate Speech, da Menschen mit Glatze keine Bevölkerungsgruppe bilden. Es ist etwas anderes, wenn ich aufgrund meiner Hautfarbe, meiner Herkunft oder meines Namens herabgewürdigt werde. Hate Speech kann auch sehr viel weiter gehen als Beleidigung – bis hin zu Morddrohungen und -aufrufen sowie allgemeinen Vernichtungsaufrufen, die nicht spezifisch sind und deshalb auch nicht als Morddrohungen verhandelt werden können.

Hier muss juristisch also zwischen dem Recht auf freie Meinungsäußerung und dem Schutz von Bevölkerungsgruppen abgewogen werden.

Die Meinungsfreiheit sollte vonseiten des Staates so wenig eingeschränkt werden wie möglich. Andernfalls werden schnell Dinge verboten, die zu einer freien Gesellschaft dazugehören. Geschichtlich sehen wir, dass bestimmte Formen der Hassrede häufig die Vorstufe zu tatsächlicher Vernichtung waren. Man sollte sich fragen, in welchem gesellschaftlichen Kontext diese Sprechhandlungen stattfinden. Haben wir eine Situation, in der z.B. niemand je darauf kommen würde, Juden tatsächlich zu vergasen, oder leben wir in einem Land, in dem das schon einmal passiert ist und in dem die Stimmung im Moment sehr stark ins Menschenfeindliche abgleitet? Ich sehe es als bedrohlicher an, wenn dies jemand hier in Deutschland skandiert, als wenn dasselbe in den USA gesagt würde, wo die Meinungsfreiheit fast absolut ist. Der Begriff „Hate Speech“ kommt aus den USA und ist dort geschaffen worden, um eine Kategorie von Sprechhandlungen zu diskutieren, die nicht unbedingt das Recht verletzen – es gibt kaum etwas, was man dort nicht sagen darf –, aber die trotzdem diskutiert werden müssen, weil sie reale Konsequenzen für die Leute haben, die Zielscheibe dieser Hassrede sind.

Vielleicht sollten wir den Begriff der Sprechhandlung noch einmal vertiefen. Wie Sie sagten, kann Hassrede in Gewalt münden, aber im Grunde ist sie an sich auch schon eine Form der Gewalt.

Das ist richtig. Ein Argument, das man in diesem Zusammenhang häufig hört, lautet: „Ja, aber das ist doch nur Sprache, das ist doch keine echte Gewalt, die sollen sich doch nicht so aufregen, es ist ihnen doch gar nichts passiert.“ In zweierlei Hinsicht greift das zu kurz. Zum einen ist Sprache immer der Vorläufer zu echter Gewalt. Nicht aus jeder hasserfüllten Äußerung muss echte Gewalt folgen, aber umgekehrt ist körperliche Gewalt gegen bestimmte Bevölkerungsgruppen selten entstanden, ohne dass es vorher verbale Gewalt gab. In dem Sinne ist Hate Speech immer ein Warnsignal. Zum anderen haben auch gesprochene Dinge eine Wirkung auf uns. Wenn mir jemand verbal droht, kann es mich natürlich in Angst versetzen, vor allem, wenn ich eine Umsetzung der Drohung befürchte. Psychologische Studien zeigen, dass Menschen, die zu Bevölkerungsgruppen gehören, gegen die Hate Speech ausgeübt wird, dadurch beeinträchtigt werden. Das kann sich etwa in einem Rückzug aus der Öffentlichkeit manifestieren. Im schlimmsten Fall zeigen sich Symptome einer Traumatisierung.

Im Internet ist es auch unter dem Aspekt einer demokratischen Öffentlichkeit, die dort eigentlich stattfinden sollte, ein großes Problem, wenn bestimmte Bevölkerungsgruppen sich nicht mehr trauen, sich zu äußern, weil sie in Diskussionen auf diese Weise angegriffen werden.

Genau, die sozialen Medien stellen historisch gesehen zum ersten Mal für jeden eine Plattform mit großer Reichweite dar. Anders als am Stammtisch sind die Meinungen in den sozialen Medien weltweit lesbar. Dem wohnt einerseits ein großes positives Potenzial inne. In Diktaturen kann dadurch öffentliche und freie Meinungsäußerung entstehen. Deshalb wird dort auch versucht, die sozialen Medien unter Kontrolle zu bringen. Andererseits kann man dieses Potenzial auch in negativer Weise nutzen. Hass, Verunglimpfung und Mordaufrufe sind genauso weltweit lesbar. Am Stammtisch waren sie auch unschön, aber wenigstens in ihrer Reichweite begrenzt.

Für die Demokratie ist es schädlich, wenn durch Hate Speech Gruppen, die gerade erst einen Weg gefunden haben, Teil der öffentlichen Diskussion zu werden, sofort wieder vertrieben und gezwungen werden, sich ins Private zurückzuziehen. Dieses Problem ist rechtlich schwer in den Griff zu bekommen. Einerseits möchte man die Meinungsfreiheit möglichst wenig einschränken, andererseits will man aber auch niemandem erlauben, durch Hetze andere in ihrer Meinungsfreiheit einzuschränken. Für die erforderliche Abwägung ist der Begriff „Hate Speech“ – neben dem Begriff der Volksverhetzung und anderen juristischen Konstruktionen, die vielleicht noch folgen werden – sehr nützlich.

Nicht aus jeder hasserfüllten Äußerung muss echte Gewalt folgen, aber umgekehrt ist körperliche Gewalt gegen bestimmte Bevölkerungsgruppen selten entstanden, ohne dass es vorher verbale Gewalt gab.

Um auf die Frage der Regulierung zurückzukommen: Glauben Sie, dass es sinnvolle Möglichkeiten gibt, auf Hate Speech zu reagieren oder diese zu sanktionieren?

Es werden drei Strategien diskutiert: Auf der juristischen Ebene könnte man sich vorstellen, einen zusätzlichen Tatbestand zu schaffen, der unterhalb der Ebene der Volksverhetzung ansetzt, möglicherweise mit weniger drastischen Strafen. Das kann man eigentlich nicht wirklich wollen.

Das wäre eine Art von staatlicher Zensur.

Man müsste sehr genau definieren, was darunter fallen würde und was nicht. Der Tatbestand der Volksverhetzung ist ja nicht ohne Grund mit einer sehr hohen Hürde versehen. Die zweite Möglichkeit besteht darin, Quasizensuraufgaben an gesellschaftliche, nicht staatliche Akteure abzugeben, wie etwa an die Netzwerkbetreiber.

Dann fände immerhin eine Form von Auseinandersetzung statt, die bisher fehlt.

Da es mehrere soziale Netzwerke gibt, wäre der Vorteil, dass die Macht, die mit diesen Zensuraufgaben einhergeht, verteilt wäre. Facebook könnte mich zwar auf seiner Seite sperren, aber nicht in anderen sozialen Netzwerken. Dennoch wäre es eine starke Einschränkung, da Facebook und Twitter in meinen Augen die beiden Netzwerke mit der größten Reichweite sind. Wir haben hier quasi Monopole, und einem Monopolisten diese Zensuraufgaben zu übertragen, halte ich dann doch wieder für gefährlich. Dazu kommt: Wenn ich diese Aufgaben einem privaten Akteur übertrage, gebe ich auch die Entscheidung über das Wertesystem, auf dessen Grundlage die Entscheidungen getroffen werden, in private Hände. Da der Konzern amerikanisch ist, haben wir es zudem mit einer anderen Kultur der freien Meinungsäußerung zu tun. Die Akteure bei Facebook verstehen meiner Meinung nach die Anliegen deutscher Politiker oft nicht, weil es in den USA z.B. absolut tabu wäre, Leute für die Leugnung des Holocaust zu zensieren.

Und wenn Facebook deutsches Recht umsetzen würde?

Facebook zu bitten, unsere Geschichte und Kultur zu berücksichtigen, klingt vielleicht erst einmal gut, aber dann kommt Saudi-Arabien und fordert das Gleiche. Dann hat Facebook plötzlich Hunderte von Jurisdiktionen weltweit, die alle spezielle historische Bedürfnisse berücksichtigt haben wollen. Das würde bedeuten, dass man Facebook entweder schließen oder nur noch Katzenbilder posten kann.

Das ist wohl nicht wünschenswert und widerspricht dem Geist des Internets, sodass die User das sicherlich auch nicht wollen.

Ganz genau. Wenn man Facebook oder anderen sozialen Netzwerken die Entscheidung überlässt, selbst festzulegen, auf welche kulturellen Sensibilitäten man Rücksicht nehmen will und auf welche nicht, dann bekommt man eventuell ein System, in dem Hetze, die auf Sprache und Bilder des Nationalsozialismus rekurriert, vielleicht zulässig ist, aber eine weibliche Brust, die lediglich in einem Beitrag zu Brustkrebsvorsorge gezeigt wird, automatisch von einem Algorithmus gelöscht wird. Normalerweise wird eine solche Sperre dann auch auf Nachfrage hin nicht aufgehoben. Der Umgang, den Facebook mit diesen Fragen pflegt, zeigt für mich, dass es in keiner Weise qualifiziert ist, Zensur- oder Regulierungsaufgaben zu übernehmen. Der dritte Akteur, dem man Regulierungsaufgaben übertragen könnte, sind Vereine. Das versucht man bereits in Bezug auf Fake News, und es wäre auch bei Hate Speech denkbar. Wenn wir diese drei Möglichkeiten nicht in Betracht ziehen, bliebe nur die Strategie der Gegenrede.

Im Einzelfall ist Gegenrede sicherlich sinnvoll, aber ob das ausreicht?

Diese Strategie hat zwei Nachteile: Wer soll die Gegenrede ausüben? Wer soll dafür verantwortlich sein? Wir alle? Der Punkt ist: Wenn ich zu keiner dieser diskriminierten Gruppen gehöre, werde ich kaum die Notwendigkeit verspüren, mich diesen Hasstiraden auf Facebook auszusetzen, um ihnen zu widersprechen; zumindest nicht dauerhaft. Das bedeutet, dass am Schluss die Gegenrede denjenigen überlassen bleibt, die Ziel der Hasstiraden sind. Leider sind das häufig Menschen, die in besonderer Weise auf die sozialen Netzwerke angewiesen sind, weil z.B. ihre Familien über verschiedene Länder verstreut sind und Facebook eine Möglichkeit ist, in Kontakt zu bleiben. Die sollen nun Leuten, die ihre Vernichtung wünschen, in einer sachlichen Gegenrede erklären, warum das falsch ist. Und das Tag für Tag. Das bindet viele Energien und führt häufig schließlich zum Rückzug aus den sozialen Netzwerken. Die Gegenrede ist eine gute Idee, aber sie braucht gesellschaftliche Institutionen, eine organisierte Form. Und man muss sich fragen, ob dieser Masse an Hassrede überhaupt beizukommen ist? Wie groß das Ausmaß ist, zeigt sich daran, dass viele große Medienunternehmen und Verlagshäuser ihre Kommentarbereiche wieder abgeschafft haben, weil dort kaum etwas anderes stattfand als Hasskommentare. Das sind nicht nur Einzelpersonen, die sich so äußern, das sind teilweise verabredete oder gelenkte Aktionen, z.B. gegen Organisationen, die Flüchtlingen helfen.

Nach Ihrer Schilderung scheint Hassrede, zumindest in einer organisierten, gelenkten Form, nicht nur ein Randphänomen, sondern tatsächlich eine Bedrohung für eine demokratische Öffentlichkeit im Netz zu sein.

Potenziell ja. Aber freie Meinungsäußerung und ein möglichst breiter gesellschaftlicher Diskurs sind notwendig für eine Demokratie. Wir können nicht darauf verzichten. Wir müssen eine Balance zwischen freier Meinungsäußerung und dem Schutz von Menschen und Gruppen vor dieser Hetze finden. Es gibt Vereine, die Amadeu Antonio Stiftung z.B., die schon mehrfach versucht haben, systematisch eine Art Gegenrede zu leisten. Das Problem ist, dass diese Organisationen sehr schnell selbst Ziel von konzertierten Hassangriffen werden und dann gezwungen sind, sich selbst zu verteidigen, anstatt für die betroffenen Gruppen da sein zu können. Außerdem kostet so etwas Geld – und die Frage ist: Wer soll das bezahlen?

Die Betreiber der sozialen Netzwerke? Dort entsteht das Problem ja schließlich.

Einerseits ja. Aber man riskiert, dass z.B. Facebook sich dann, wenn es ihm zu teuer wird, aus dem deutschen Markt zurückzieht. Das ist auch ein Nachteil von monopolartigen Strukturen. Trotzdem müssen die Netzwerkbetreiber natürlich auch in die Verantwortung genommen werden. Die Frage ist, wie diese Verantwortung tatsächlich gestaltet werden kann. Und andererseits denke ich nicht, dass das Problem der Hassrede wirklich auf Facebook entsteht. Das Problem entsteht in einer Gesellschaft, die solche Leute hervorbringt, die in den sozialen Medien Hass verbreiten. Langfristig muss man das Problem der gruppenbezogenen Menschenfeindlichkeit grundsätzlicher angehen, z.B. über politische Bildung, in der Erziehung, in der Schule. Die Jugend kann einem, was das angeht, Hoffnung machen. Studien zeigen, dass jüngere Menschen tendenziell weniger menschenfeindlich sind als ältere Menschen.

Dr. Anatol Stefanowitsch ist als Sprachwissenschaftler Professor für Englische Philologie an der Freien Universität Berlin.

Christina Heinen ist Hauptamtliche Vorsitzende in den Prüfausschüssen der Freiwilligen Selbstkontrolle Fernsehen (FSF).