Fokusbericht 2017: Hate Speech in Social Media – Aspekte eines neuen Phänomens

Zürich, 01. Januar 2017

von Patrik Ettinger*

Die Veränderungen der öffentlichen Kommunikation durch die Etablierung von Social Media scheint auch zu einer Zunahme von Hate Speech geführt zu haben. Dies zumindest ist eine weit verbreitete Wahrnehmung. Exemplarisch hierfür steht der Bericht des Bundesrates zur rechtlichen Basis für Social Media, der im Mai 2017 die Entwicklung wie folgt beschreibt: «Die Problematik hasserfüllter, hetzerischer, rassistischer und diskriminierender Äusserungen in sozialen Netzwerken hat sich in den vergangenen Jahren zugespitzt» (Bundesrat, S. 38).

Um das Phänomen von Hate Speech in Social Media besser verstehen und in seiner Tragweite einschätzen zu können, zeigt dieser Beitrag einleitend auf, wie sich das Phänomen Hate Speech unter einer sozialwissenschaftlichen Perspektive definieren lässt. Dann werden wir uns der zentralen Frage zuwenden, wie sich die öffentliche Kommunikation durch die Etablierung von Social Media verändert hat und welchen Einfluss die mit den Social Media etablierten neuen Kommunikationsformen auf die Verbreitung von Hate Speech haben. Auf dieser Basis lassen sich die empirisch feststellbaren Veränderungen beurteilen und Strategien im Umgang mit Hate Speech in Social Media skizzieren.

Was ist Hate Speech – eine Eingrenzung des Phänomens

Hate Speech ist ein umstrittener und häufig nicht präzise definierter Begriff (Marx, S. 42). Dies erklärt sich einerseits aus dem Umstand, dass Hate Speech als Konzept selbst Gegenstand politischer Auseinandersetzungen ist. Was gilt als Hate Speech und was ist noch pointierte Meinungsäusserung im Konflikt, legitime Kritik oder Protest? Und auf der anderen Seite: Was ist legitime Eindämmung von Hate Speech und was gilt bereits als Zensur? Diese Fragen der Grenzziehung sind einerseits virulent, weil Akteure, die Hate Speech verwenden, häufig die Grenzen zu verschieben oder gar zu negieren versuchen. Doch die Frage der Grenzziehung stellt sich auch aus der Perspektive des demokratischen Rechtsstaates, in dem Einschränkungen des Grundrechts der Meinungsfreiheit in einem Prozess der Güterabwägung mit dem Schutz anderer Grundrechte legitimiert werden müssen. Dass hier unterschiedliche Antworten möglich sind, zeigt sich im Vergleich der Rechtstraditionen demokratischer Gesellschaften.

Hate Speech ist aber nicht nur ein politisch umstrittener Begriff. Die wissenschaftliche Auseinandersetzung mit dem Phänomen vermeidet vor allem ausserhalb des angelsächsischen Raums häufig den Begriff Hate Speech – auch Aufgrund seiner politischen Implikationen – und arbeitet mit alternativen Konzepten wie z.B. der gruppenbezogenen Menschenfeindlichkeit (vgl. Heitmeyer). Und dort, wo Hate Speech als Konzept verwendet wird, finden sich je nach Fachtraditionen unterschiedliche Ansätze. Dennoch lässt sich ein Kern von Indikatoren für Hate Speech bestimmen, der nachfolgend für diesen Beitrag aus einer soziologischen und kommunikationswissenschaftlichen Perspektive präzisiert werden soll.

  1. Hate Speech ist öffentliche Rede. Diese Präzisierung rekurriert darauf, dass wir öffentlicher Kommunikation – im Gegensatz zur privaten – eine gesellschaftliche Relevanz zuschreiben und daher andere normative Anforderungen an sie stellen.
  2. Hate Speech bezieht sich auf Gruppen oder Individuen als Mitglieder dieser Gruppen, denen auf der Basis von Ethnie, Religion, Gender oder sexueller Orientierung spezifische Merkmale zugeschrieben werden. Hate Speech ist entsprechend verallgemeinernd. Der Begriff arbeitet mit sprachlichen Mitteln der Pauschalisierung und der Essentialisierung, d.h. diese Merkmale werden der Gruppe und all ihren Mitgliedern als wesenhaft zugeschrieben.
  3. Hate Speech ist abwertend und diskriminierend. Den Opfern von Hate Speech wird grundsätzlich die Anerkennung als gleichberechtige Mitglieder der Gesellschaft abgesprochen. Sie werden herabgesetzt, als minderwertig beschrieben und/oder dämonisiert. Damit einher geht eine Unterscheidung zwischen einem positiv besetzten «Wir» und den ausgegrenzten «Anderen». Dieser Aspekt unterscheidet Hate Speech vom legitimen politischen Konflikt, der die Anerkennung des Gegners voraussetzt.
  4. Durch Hate Speech werden Handlungen motiviert und legitimiert. Dies kann zu physischer Gewalt gegen die Opfer von Hate Speech führen, aber auch zu weniger gut sichtbaren Formen der Ausgrenzung, wenn z.B. die stigmatisierten Opfer von Hate Speech aus Angst und Verzweiflung verstummen und so am öffentlichen Leben nicht mehr teilnehmen können.

Neben diesen vier weitestgehend konsensuellen Aspekten von Hate Speech gibt es zwei weitere, die umstritten sind. Sie betreffen die Absicht des Sprechers, empfundenen Hass auszudrücken (Intentionalität), und die Wirkung bei den Opfern von Hate Speech (Sirsch, S. 168f.).

Die Intentionalität von Hate Speech wird vor allem ins Feld geführt, um vermeintliche Unklarheiten bei den Punkten 3 und 4 zu klären. So liege beispielsweise kein Hate Speech vor, wenn Schwarze, die sich wechselseitig als «nigger» bezeichnen, dies im Sinne einer positiven Umdeutung eines stigmatisierenden Begriffs tun. Gegen die Berücksichtigung der Intentionen der Sprecher wird argumentiert, dass sich diese oft nicht zweifelsfrei feststellen liessen. Ich halte dies für ein methodisches und kein konzeptionelles Problem. Die Absicht des Sprechers muss sich aus den Sprechakten und ihrem Kontext selbst erschliessen lassen, wozu konzeptionell die oben erwähnten Punkte ausreichen.

Gegen Konzepte, die die Wirkung auf die Opfer von Hate Speech ins Zentrum stellen, wird argumentiert, «dass auf diese Weise jegliche Rede als Hassrede klassifiziert werden könnte, wenn sich jemand finden würde, der diese als beleidigend empfindet» (Sirsch, S. 168). Diesem Argument ist insofern zuzustimmen, als die Wahrnehmung der Opfer intersubjektiviert werden muss, sie also nicht als alleiniges Kriterium fungieren kann. Eine Intersubjektivierung ist aber auf der Basis der vier genannten Kriterien möglich. Zudem würde ich dieses Argument relativeren. Historische Erfahrungen von Ausgrenzung und Diskriminierung sensibilisieren Angehörige von Minderheiten in weit stärkerem Masse als jene Akteure, die davon nicht betroffen sind. Dies ist im Sinne einer Kontextuierung bei der Analyse von Hate Speech zu berücksichtigen.

Wie verändert sich die öffentliche Kommunikation durch Social Media?

Mit der Digitalisierung der Medien und der Etablierung von Social Media hat sich die Öffentlichkeit moderner demokratischer Staaten fundamental verändert. Die wohl wichtigste Änderung ist eine Verschiebung der Grenzen zwischen öffentlicher und privater Kommunikation. Vor der Digitalisierung und der Etablierung von Social Media wurde öffentliche Kommunikation primär durch traditionelle Massenmedien hergestellt. Journalistinnen und Journalisten entschieden als «gate keeper» darüber, was zum Gegenstand öffentlicher Kommunikation wurde. Dieser Entscheid folgte ökonomischen Überlegungen der Aufmerksamkeitsmaximierung, war aber eingebettet in gesellschaftliche Normen und berufsethische Standards.

Von dieser Sphäre öffentlicher Kommunikation war die Sphäre der privaten Kommunikation deutlich abgesetzt. Hier war der Ort, an dem gesellschaftliche Normen weit weniger strikt eingehalten werden mussten. Hier konnte auch gesagt werden, was man öffentlich nicht aussprechen wollte oder auszusprechen wagte.

Mit der Digitalisierung verschwimmt diese Trennung von öffentlicher und privater Kommunikation. Nun sehen wir – wie dies der Kommunikationswissenschaftler Hans-Bern Brosius treffend formulierte – «alle Kommunikationsinhalte, die es in der ‘Offline-Zeit’ auch gab, die aber durch die Online-Beobachtung den Rahmen der privaten, interpersonalen Kommunikation verlassen. Wir sehen den ‘Stammtisch’, wir sehen Hasstiraden, wir sehen Menschen spielen, kaufen, sich unterhalten, etc. Viele Kommunikationsformen sind nicht neu, aber nun online sichtbar. Und dies gilt nicht nur synchron, sondern durch die Speicherkapazität – das unendliche Gedächtnis des Internet – auch diachron» (Brosius, S. 365). Damit wird Teil der öffentlichen Kommunikation, was zuvor privat war.

Mit der Digitalisierung verschieben sich aber nicht nur die Grenzen zwischen öffentlicher und privater Kommunikation, sondern es ändern sich auch die Rollen. Während die Kommunikation in traditionellen Massenmedien eine one-to-many Kommunikation ist, ermöglicht die digitalisierte Kommunikation eine Kommunikation many-to-many. Nun kann potentiell jeder auch zum Absender von Botschaften werden, die von einem breiten Publikum wahrgenommen werden können. Dies erschliesst einzelnen Personen wie Organisationen neue Möglichkeiten der Kampagnenkommunikation und der Mobilisierung – auch solcher, die sich mit Hate Speech gegen Minderheiten richtet.

Dabei profitieren diese Organisationen von technischen Entwicklungen im Zuge der Digitalisierung, die Kommunikation in einem bisher nie gekannten Ausmass mess- und beeinflussbar machen. Die Aufmerksamkeitsökonomie, d.h. die Erzielung und Verteilung von Aufmerksamkeit, lässt sich nun in Echtzeit in Form von Klicks, Likes oder Verweildauer messen und entsprechend optimieren. Dies nutzen zum einen die auf Aufmerksamkeit angewiesenen Akteure, die nun eine Fülle von Möglichkeit zur Aufmerksamkeitsoptimierung zur Verfügung haben; bis hin zum in der Schweiz jedoch noch kaum verbreiteten Einsatz von Social Bots (vgl. Rauchfleisch/Vogler). Zum anderen profitieren davon auch die Tech-Giganten wie Google, Facebook oder Twitter, die Aufmerksamkeit in ökonomische Rendite verwandeln können. Und weil sich Aufmerksamkeit vor allem über emotionalisierende Botschaften gewinnen lässt, wird die Kommunikation in den Netzen auch verstärkt emotionalisiert.

Die Möglichkeit, die Aufmerksamkeit der Nutzer gezielt zu messen und zu steuern, verleitet die Anbieter von Social Media aber auch dazu, den Nutzern vor allem jene Typen von Informationen anzubieten, die früher bereits ihre Aufmerksamkeit erzielten resp. die in ihren sozialen Netzen geteilt werden. So kann Aufmerksamkeit optimiert werden. Da die Unendlichkeit des Netzes eine Strukturierung voraussetzt, die hierzu eingesetzten Algorithmen aber für die Nutzer nicht durchschaubar sind, führt dies dazu, dass die vermeintliche Vielfalt der Informationen im Netz durch sogenannte «Filter Bubbles» und «Echo Chambers» tendenziell verengt wird. Es entwickelt sich ein Blick auf die Welt, der bestehende Vorurteile verstärkt.

Diese Veränderungen der öffentlichen Kommunikation durch die Digitalisierung und den Bedeutungsgewinn von Social Media werden durch den Wandel der Nachrichtenrezeption im Generationenvergleich verstärkt. In der Schweiz sind Social Media bereits für 24% der 18-24-Jährigen die wichtigste Quelle für News, während dies bei Personen älter als 55 Jahre nur zu 4% der Fall ist (fög, S. 7).

Wie verändern Social Media die Verbreitung von Hate Speech?

Bevor wir im Folgenden skizzieren, wie sich die Digitalisierung und die Etablierung von Social Media auf die Verbreitung von Hate Speech auswirken, wollen wir festhalten, dass Hate Speech ein altes Phänomen ist, das lange vor der Etablierung von Social Media auftrat und dass Hate Speech in diskontinuierlichen Wellen in der öffentlichen Kommunikation auftritt.

Wie zahlreiche Befragungen zeigen, finden sich Einstellungen, die auf eine gruppenbezogene Menschenfeindlichkeit und eine Affinität zu Hate Speech schliessen lassen, auch in modernen demokratischen Gesellschaften bei einem beachtlichen Teil der Bevölkerung – und dies lange vor der Etablierung von Social Media. Die Zahlen schwanken je nach Befragungsmethode, betroffener Minderheit und Zeitpunkt der Befragung, aber das Problem ist jeweils mehr als nur marginal (vgl. für einen Überblick bezüglich Antisemitismus Pfahl-Traughber; bezüglich Muslimfeindlichkeit Hafez). «Das Internet macht lediglich sichtbar, was ohnehin in der politischen Kultur angelegt gewesen ist» (Hafez, S. 321).

Die Verwendung von Hate Speech ist nicht nur ein altes Phänomen, sondern auch eines, dass sich in gesellschaftlichen Krisenphasen regelmässig verstärkt. Denn in diesen Phasen werden Minderheiten als «Sündenböcke» problematisiert und ausgegrenzt (vgl. Imhof). Zugleich sinkt die gesellschaftliche Hemmschwelle in Bezug auf die Verwendung von Hate Speech. Angesichts der Orientierungskrise, in der sich viele demokratische Gesellschaften aktuell befinden, ist es plausibel, einen beachtlichen Teil der beobachtbaren Hate Speech Aktivitäten im Netz durch Faktoren zu erklären, die nur insofern mit der Digitalisierung zu tun haben, als diese die Sichtbarkeit des Phänomens deutlich erhöht. Die exakte Grösse dieses Anteils lässt sich allerdings nicht beziffern.

Daneben gibt es aber auch einige Argumente dafür, dass die durch die Digitalisierung und die Etablierung von Social Media veränderten Strukturen öffentlicher Kommunikation die Verbreitung von Hate Speech erleichtern:

  1. Während in traditionellen Medien Journalistinnen und Journalisten noch die Rolle von Gate Keepern übernehmen und beispielsweise in den moderierten Kommentarspalten dafür sorgen, dass sich Hate Speech nicht verbreiten kann, sind entsprechende Kontrollmechanismen in den Social Media nur schwach ausgeprägt. Dies erklärt sich zum einen aus dem Umstand, dass sich die Tech-Giganten als Plattformbetreiber verstehen, die Infrastrukturen zur Verfügung stellen, aber nur beschränkt Verantwortung für die Nutzung dieser Infrastrukturen zu übernehmen bereit sind (vgl. dazu Altmeppen; Sellars, S. 20–24). Zum andern ist es bei global operierenden Tech-Giganten für Opfer in der Schweiz oft schwierig, Ansprüche durchzusetzen.
  2. Durch die Möglichkeiten digitaler Kommunikation können soziale Bewegungen oder Protestparteien, die Minderheiten mit Hate Speech diskriminieren, leichter als früher mobilisieren und ihre Opfer beispielsweise mit einem Shitstorm überziehen. Durch organisierte Aktionen, bei denen auch technische Hilfsmittel wie Social Bots, d.h. computergenerierte und massenhaft verbreitete Botschaften, zum Einsatz kommen, vermitteln solche Akteure den Eindruck, dass ihre Hassbotschaften breit geteilt werden. Zugleich werden durch solche Aktionen die Opfer von Hate Speech massiv in ihren Möglichkeiten der Online-Kommunikation eingeschränkt. Zudem erlauben Social Media eine stärkere Vernetzung innerhalb wie zwischen diesen Organisationen, was ihre Schlagkraft erhöht.
  3. Social Media sind Emotionsmedien. Die Kommunikation auf Social Media ist stärker emotionalisiert als in traditionellen Medien und sie ist auf Gemeinschaftsbildung hin angelegt (Lischka/Stöcker, S. 29-31). Je stärker emotional aufgeladen ein Tweet formuliert ist, desto häufiger und desto schneller wird er per Retweet weiterverbreitet (vgl. Stieglitz/Dang-Xuan). Und je häufiger in einem Facebook-Beitrag negativ konnotierte Begriffe auftauchen, desto mehr Kommentare erhält dieser Beitrag (vgl. Stieglitz/Dang-Xuan). Zudem ziehen die Nutzer sozialer Plattformen Gratifikationen primär aus dem Beziehungs- und dem Identitätsmanagement, d.h. der Möglichkeit der Vernetzung unter Gleichgesinnten wie auch der Selbstdarstellung (vgl. Eisenegger). Eine emotionalisierte, mit negativen Begriffen aufgeladene und auf Gemeinschaftsbildung – auch durch Abgrenzung – ausgerichtete Kommunikation ist selbstverständlich nicht einfach mit Hate Speech gleichzusetzen. Aber sie schafft eine Kommunikationskultur, in der Hate Speech gedeihen kann.

Lässt sich eine Zunahme von Hate Speech in Social Media bereits empirisch belegen?

Vieles von dem, was wir aus einer theoretischen Perspektive als mögliche Effekte von Social Media diskutiert haben, lässt sich bisher empirisch erst unzureichend belegen. Empirische Studien, die zeigen, wie sich die Verbreitung von Hate Speech im Zeitalter der Digitalisierung und der Etablierung von Social Media verändert, sind noch selten. Die im Auftrag des World Jewish Congress durchgeführte Studie zu Antisemitismus in Social Media, die eine breites Sample von Ländern untersuchte, fand für das Jahr 2016 durchschnittlich 43 Posts pro Stunde mit antisemitischem Inhalt, von denen 41% Hate Speech gegen Juden enthielten (WJC 2017, S. 14). Da aber bisher Vergleichszahlen (mit Ausnahme einer Studie zum Januar 2018) fehlen, können aus diesen Daten keine Gewichtung und keine Trends abgelesen werden. Der Folgebericht vom Januar 2018 stellt bei Posts, in denen Symbole und Bilder mit antisemitischem Inhalt verbreitet wurden, eine Zunahme in der Schweiz fest (WJC 2018, S. 5). Allerdings ist aufgrund des einmaligen und relativ kurzen Messzeitpunkts auch hier nicht eindeutig, ob es sich um einen Zufallsbefund oder erste Hinweise auf einen Trend handelt. Dies insbesondere auch deshalb, weil weitere systematische Zahlen für die Schweiz fehlen.

Auf der Ebene der Anzeigen und Verurteilungen zeigt die Sammlung der Rechtsfälle durch die Eidgenössische Kommission gegen Rassismus tendenziell eine Zunahme (vgl. EKR); allerdings mit starken Schwankungen, die teilweise durch Schlüsselereignisse (Konflikte im Nahen Osten, islamistische Anschläge etc.) zu erklären sind. Zudem kann die Anzeigenhäufigkeit sowohl auf eine Zunahme von Straftaten wie auf eine Veränderung des Anzeigeverhaltens verweisen.

Empirischen Studien, die durch eine systematische und vergleichende Beobachtung auch Aussagen über die Entwicklung von Hate Speech in Social Media mit Bezug auf die Schweiz erlauben würden, stehen also noch aus. Wie solche Studien konzipiert werden könnten, wird nachfolgend skizziert.

Wie kann Hate Speech in Social Media adäquat erfasst werden?

Die Methode zur Erfassung von Hate Speech in Social Media gibt es nicht. Denn einerseits sind die Datengrundlagen und die Möglichkeiten der Datenerfassung in den jeweiligen Social Media zu unterschiedlich und in einem steten Wandel begriffen. Anderseits ist jede Methodenwahl abhängig vom jeweiligen Erkenntnisinteresse, d.h. der konkreten Fragestellung, die wir beantworten wollen und dem Erklärungsgehalt, den wir mit den erfassten Daten anstreben.

Eine systematische Erfassung von Hate Speech in Social Media muss daher die jeweiligen Spezifika der Social-Media-Kanäle berücksichtigen. So lässt sich die Kommunikation auf Twitter vollständig nach Begriffen und ihren Kombinationen durchsuchen, während dies beispielsweise bei Facebook nur mit Einschränkungen, etwa in vordefinierten Accounts, möglich ist. Einschränkend ist beispielsweise auf Facebook zu beachten, dass neben öffentlicher auch teilöffentliche und private Kommunikation möglich ist.

Unterschiede zwischen den Social-Media-Angeboten zeigen sich aber auch in der Nutzung und der Reichweite. Twitter wird in der Schweiz überdurchschnittlich häufig von Politikern und Medienschaffenden benutzt. Es hat daher den Status eines Elitemediums mit geringer direkter Reichweite, aber grossem Potential für Anschlusskommunikation auch in traditionellen Medien. Eine viel grössere Reichweite und eine breitere soziale Verteilung der Nutzer weisen Facebook, Youtube und Instagram auf.

Die Wahl der methodischen Zugriffe muss zudem reflektieren, dass sich Hate Speech in ganz unterschiedlichen sprachlichen Formen manifestieren kann. Neben eindeutigen Aussagen, die Minderheiten direkt mit bestimmten Begriffen und Attributen verbinden, finden sich Formen, in denen sich Hate Speech nur implizit zu erkennen gibt. Ein Beispiel hierfür sind Aussagen des Typs «Eine Person ist x, obwohl sie y ist», wobei x für eine positive Eigenschaft und y für die Zugehörigkeit zu einer Minderheit steht. Denn diese Aussage impliziert, dass die erwähnte Eigenschaft normalerweise der Gruppe nicht zugeschrieben werden kann. Eine computergestützte Suche nach Begriffen und Kombinationen ermöglicht es recht gut, Hate Speech des expliziten Typs zu erfassen (vgl. Burnap; Taylor), während sie bei impliziter Hasskommunikation sehr schnell an Grenzen stösst. Und weil die Form von Hate Speech auch mit dem Bildungsstand zusammenhängt, wird mit einem Zugang, der nur nach spezifischen Begriffen resp. ihren Kombinationen sucht, Hate Speech von Personen mit geringem Bildungsstand überproportional erfasst, während die subtileren Formen von Hate Speech in Eliten unterpräsentiert sind.

Eingedenk dieser Differenzierungen scheint uns für die Erfassung von Hate Speech in Social Media mit Bezug zur Schweiz und den hier lebenden Minderheiten ein Zugang zielführend, der am Netzwerkcharakter von Social Media ansetzt. Konkret geht es darum, Netzwerke zu identifizieren, in denen Hate Speech gehäuft auftritt und ihre Kommunikationsflüsse und
-inhalte gezielt mit einer Kombination von computergestützten automatisierten Zugängen und vertiefenden Analysen durch hermeneutisch geschulte Codierer zu analysieren. Eine solche Netzwerkanalyse setzt – im Bewusstsein um die erwähnten Limitierungen – bei der Kommunikation auf Twitter an. In einem ersten Schritt werden über computergestützte Suchroutinen jene Akteure auf Twitter erfasst, die Hate Speech verbreiten. Über die Analyse der Follower-Beziehungen zwischen den einzelnen User lässt sich dann mittels eines Algorithmus (vgl. Blondel et al.) nach dem Prinzip der Homophilie – «Gleich und gleich gesellt sich gerne» – (vgl. McPherson et al.) ein Netzwerk modellieren, in dem Nutzer-Communities identifiziert werden können. Ein Vorteil dieses Zugangs liegt darin, dass sich in diesem Netzwerk die Akteure bzw. Communities mit Bezug zur Schweiz identifizieren lassen. In diesen Netzen nehmen häufig Organisationen (Medien, Protestparteien, soziale Bewegungen etc.), auf die sich Kommunikation in Social Media bezieht und von denen sie auch mitgesteuert wird, eine zentrale Position ein. An solchen Kommunikationsverdichtungen kann dann die hermeneutische Analyse von Hate-Speech-Beiträgen exemplarisch ansetzen.

Die Netzwerkanalyse erlaubt uns zudem, Social Media nicht nur für sich zu betrachten, sondern anhand der Vernetzungen auch die Beziehungen zu traditionellen Massenmedien in den Blick zu bekommen. So lässt sich beispielsweise zeigen, auf welche Beiträge in traditionellen Medien Hate-Speech-Beiträge in den Social Media Bezug nehmen. Umgekehrt kann durch eine korrespondierende Medienanalyse gezeigt werden, was an Social-Media-Kommunikation massenmedial zum Thema und so gegebenenfalls korrigiert wird. Zudem kann die korrespondierende Medienanalyse aufzeigen, welche Formen der massenmedialen Berichterstattung und welche berichteten Schlüsselereignisse besonders häufig eine Intensivierung von Hate Speech in Social Media auslösen.

Wie kann Hate Speech in Social Media bekämpft werden?

Als ein Bild des Neujahrsbabys und seiner glücklichen Eltern in einem Wiener Spital veröffentlicht wird, kommt es zu einem Shitstorm mit zahlreichen Hasskommentaren. Denn das Kind trägt keinen deutsch klingenden Namen und seine Mutter ein Kopftuch. In Reaktion auf diesen Shitstorm initiiert der Wiener Caritas-Generalsekretär Klaus Schwertner erfolgreich eine «flowerrain» mit zehntausenden von Social-Media-Beiträgen, in denen die Familie unterstützt und der Hass in Netz zurückgewiesen wird.

An diesem kleinen Beispiel wird deutlich, dass nicht nur die Verbreitung von Hasskommentaren, sondern auch ihre Bekämpfung wesentlich vom Engagement von Organisationen abhängt. Hier sind einerseits Organisationen der Zivilgesellschaft gefragt. Sie können Opfer beraten, sie können eine breite Öffentlichkeit für das Thema sensibilisieren und sie können – wie das erwähnte Beispiel zeigt – bei einer kampagnenförmigen Verbreitung von Hate Speech Gegenkampagnen organisieren.

So wichtig die Rolle von zivilgesellschaftlichen Organisationen ist, da sich in ihnen gesellschaftliches Engagement bündelt, so wenig dürfen sie mit dieser Aufgabe allein gelassen werden. Eine zentrale Rolle bei der Schaffung von Rahmenbedingungen für zivilgesellschaftliches Engagement kommt den staatlichen Institutionen zu. Als Gesetzgeber müssen sie die rechtlichen Rahmenbedingungen so gestalten, dass das Recht auf freie Meinungsäusserung nicht zu einer Verletzung der Grundrechte der von Hate Speech betroffenen Minderheiten missbraucht wird. Wie in diesem Prozess der Güterabwägung die Grenzen zu ziehen sind, ist – wie sich am Beispiel des Deutschen Netzwerkdurchsetzungsgesetz zeigt – eine kontroverse Frage. Sie aber nicht anzugehen, ist keine Lösung.

Staatliche Institutionen wirken aber nicht nur, indem sie rechtliche Rahmenbedingungen festlegen. Sie entscheiden auch über die Verteilung von Leistungen und Ressourcen. Ein erfolgreiches Engagement von zivilgesellschaftlichen Organisationen braucht auch staatliche Unterstützung. Aufklärungsarbeit, Beratung von Opfern oder ein systematisches Monitoring von Hate Speech in Social Media können durchaus auch als Aufgaben eines Staates interpretiert werden, der die Grundrechte all seiner Bürgerinnen und Bürger schützt. Dabei können diese Leistungen sowohl durch staatliche Institutionen selbst als auch durch entsprechende Beiträge an zivilgesellschaftliche Organisationen erbracht werden.

In der Pflicht sind aber auch die Medienorganisationen. Traditionelle Medien müssen in der Bekämpfung von Hate Speech in Social Media ihrer Kontroll- und Kritikfunktion nachkommen, indem sie Fälle öffentlich machen und einen rationalen Diskurs über die Grenzen der Meinungsfreiheit ermöglichen. Die Tech-Giganten, die nicht nur Plattformen sind, die Kommunikation in Social Media ermöglichen, sondern diese Kommunikation über Algorithmen auch mitgestalten, sind in der Pflicht, analog zu den traditionellen Medienhäusern, Verantwortung für die Inhalte zu übernehmen. Wenn, wie in der Diskussion gegen das Netzwerkdurchsetzungsgesetz häufig vorgebracht, zur Prüfung eines Beitrags auf Facebook durchschnittlich nur acht Sekunden zur Verfügung stünden, so ist dies kein Argument, dass eine solche Verantwortungsübernahme nicht möglich ist, sondern nur ein Argument dafür, dass die Übernahme von Verantwortung nicht umsonst zu haben ist. Aktuelle Entwicklungen lassen vermuten, dass zumindest einige der Tech-Giganten dies durchaus verstanden haben.

*Dr. Patrik Ettinger, Soziologe und Historiker, seit 2015 stellvertretender Präsident des
fög – Forschungsinstituts Öffentlichkeit und Gesellschaft/Universität Zürich.

Literatur und Quellen

Altmeppen, Klaus-Dieter (2016): Die Re-Institutionalisierung des Journalismus durch die digitalen Konglomerate. In: Jarren, Otfried / Steininger, Christian (Hg.): Journalismus jenseits von Markt und Staat. Institutionentheoretische Ansätze und Konzepte in der Publizistik- und Kommunikationswissenschaft, Baden-Baden: Nomos, S. 209-218.

Blondel, V. D. / Guillaume, J. L. 7 Lambiotte, R. / Lefebvre, E. (2008). Fast unfolding of communities in large networks. Journal of statistical mechanics: theory and experiment, 2008(10), P10008.

Brosius, Hans-Bernd (2016): Warum Kommunikation im Internet öffentlich ist. Zu Andreas Hepps Beitrag «Kommunikations- und Medienwissenschaft in datengetriebenen Zeiten». In: Publizistik, 61, H. 4, S. 363-372.

Bundesrat der Schweizerischen Eidgenossenschaft (2017), Rechtliche Basis für Social Media: Erneute Standortbestimmung Nachfolgebericht des Bundesrates zum Postulatsbericht Amherd 11.3912 «Rechtliche Basis für Social Media».

Carlson, Caitlin Ring (2016): Hashtags and Hate Speech: The Legal and Ethical Responsibilities of Social Media Companies to Manage Content Online. In: Vanacker, Bastiaan/Heider, Don (Hg.): Ethics for a Digital Age. New York et al., S. 123-140.

Eisenegger, Mark (2017): Digitaler Strukturwandel der Öffentlichkeit – professionelle Informationsmedien nötiger denn je!, in: Forschungsinstitut Öffentlichkeit und Gesellschaft (Hg.): Jahrbuch 2017. Qualität der Medien. Schweiz – Suisse – Svizzera, Basel: Schwabe Verlag, S. 7-16.

EKR – Eidgenössische Kommission gegen Rassismus: Sammlung Rechtsfälle, abgerufen unter: http://www.ekr.admin.ch/dienstleistungen/d272.html.

fög – Forschungsinstitut Öffentlichkeit und Gesellschaft (2017): Reuters Institut Digital News Report. Ergebnisse für die Schweiz, abgerufen unter: https://www.foeg.uzh.ch/dam/jcr:8d44f1f2-ec81-4cb4-90f0-be453b1bba67/DNR_2017.pdf.

Hafez, Kai (2017): Hass im Internet. Zivilitätsverluste in der digitalen Kommunikation. In: Communicatio Socialis 50 H. 3, S. 318-333.

Heitmeyer, Wilhelm (Hg.) (2002): Deutsche Zustände, Folge 1. Frankfurt a.M.: Suhrkamp.

Imhof, Kurt (2006): Die Diskontinuität der Moderne. Zur Theorie des sozialen Wandels, Frankfurt a.M. / New York: Campus.

Lischka, Konrad / Stöcker, Christian (2017): Digitale Öffentlichkeit – Wie algorithmische Prozesse den gesellschaftlichen Diskurs beeinflussen. Gütersloh: Bertelsmann Stiftung, abgerufen unter: https://www.bertelsmann-stiftung.de/fileadmin/files/BSt/Publikationen/GrauePublikationen/Digitale_Oeffentlichkeit_final.pdf.

Marx, Konstanze (2017): Two sides of the coin: Hate speech as communicative pattern. In: 10plus1, H. 3, S. 42-45.

McPherson, M. / Smith-Lovin, L. / Cook, J. M. (2001). Birds of a feather: Homophily in social networks. Annual review of sociology, 27(1), S. 415-444.

Pfahl-Traughber, Armin (2017): Antisemitismus. Definition und Gefahrenpotential, in: Bozay, K. / Borstel D. (Hg.): Ungleichwertigkeitsideologien in der Einwanderungsgesellschaft. Wiesbaden: Springer VS, S. 83-102.

Rauchfleisch, Adrian / Vogler, Daniel (2018): #NoBillag auf Twitter: Grabenkämpfe zwischen Gegnern und Befürwortern, abgerufen unter: https://www.foeg.uzh.ch/dam/jcr:7b9901f5-2942-43e3-b3b3-e1345ae6a62b/%23NoBillag%20auf%20Twitter.pdf.

Rechtliche Basis für Social Media: Erneute Standortbestimmung. Nachfolgebericht des Bundesrates zum Postulatsbericht Amherd 11.3912 «Rechtliche Basis für Social Media», Bern, 10. Mai 2017, abgerufen unter: https://www.bakom.admin.ch/bakom/de/home/digital-und-internet/digitale-kommunikation/soziale-medien.html.

Sellars, Andrew F. (2016): Defining Hate Speech. The Berkman Klein Center for Internet & Society Research Publication No. 2016-20, abgerufen unter: https://cyber.harvard.edu/publications/2016/DefiningHateSpeech.

Sirsch, Jürgen (2013): Die Regulierung von Hassrede in liberalen Demokratien. In: Meibauer, Jörg (Hg.): Hassrede/Hate Speech. Interdisziplinäre Beiträge zu einer aktuellen Diskussion. Linguistische Untersuchungen. Gießener Elektronische Bibliothek. S. 165-194.

Stieglitz, Stefan / Dang-Xuan, Linh (2012). Impact and Diffusion of Sentiment in Public Communication on Facebook. ECIS 2012 Proceedings. 98. Abgerufen unter: http://aisel.aisnet.org/ecis2012/98.

Stieglitz, Stefan / Dang-Xuan, Linh (2013). Emotions and Information Diffusion in Social Media – Sentiment of Microblogs and Sharing Behavior“. Journal of Management Information Systems (29), S. 4. 217–248.

World Jewish Congress (WJC) (2017): The Rise of Antisemitism on Social Media. Summary of 2016, abgerufen unter http://www.worldjewishcongress.org/download/RVsVZzRXTaZwO41YbzlWwg.

World Jewish Congress (WJC) (2018): Anti-Semitic Symbols and Holocaust Denial in Social Media Posts. Januar 2018, abgerufen unter http://www.worldjewishcongress.org/download/3KVjYgi8FNOTxdWd5HeFPw?utm_source=PRESS&utm_campaign=3d806f4ab8-EMAIL_CAMPAIGN_2018_02_08&utm_medium=email&utm_term=0_c3b21e69b1-3d806f4ab8-&utm_source=WJC+Mailing+Lists&utm_campaign=78bfed156d-EMAIL_CAMPAIGN_2018_02_08&utm_medium=email&utm_term=0_04292c525e-78bfed156d-318920277.