Der Hass im Netz – und was dagegen zu tun ist

Der Hass im Netz hat Konjunktur - und droht irgendwann zur Gefahr für die Demokratie zu werden. Je stärker gesellschaftliche Themen in sozialen Medien und Onlineforen ausgehandelt werden, desto wichtiger wird die Fähigkeit, sachlich miteinander diskutieren zu können. CARTA bringt exklusiv einen Auszug aus dem in Kürze erscheinenden Buch „Hass im Netz“ von Ingrid Brodnig.

Hass verhindert Empathie. Oder wie es der Soziologe Hinrich Rosenstock einmal treffend beschrieb:

„Menschen, die hassen, haben keinerlei Empathie gegenüber den Gehassten; damit verlieren sie auch einen Großteil ihrer Hemmungen. Hass drückt eine starke Feindschaft aus, also eine Abgrenzung und damit in der Regel eine Zuschreibung ,wir‘ gegen ,die‘. Es bildet sich eine kollektive Identität heraus.“

Der Hass im Netz hilft den „Glaubenskriegern“, die die Gesellschaft spalten und Zulauf generieren wollen. Glaubenskrieger zeichnet aus, dass sie restlos überzeugt sind von einer Idee und keinen Widerspruch mehr dulden, dass sie aggressiv und herabwürdigend gegen alle vorgehen, die eine andere Sichtweise einnehmen. Mit all denen wollen sie nicht diskutieren, die wollen sie einfach nur wegmobben.

Der Kommunikationswissenschaftler Dietram Scheufele hat eine Untersuchung durchgeführt – meines Erachtens eine der bedeutendsten Studien zum Thema „Hass im Internet“. Scheufele und seine Kollegen der University of Wisconsin ließen 1183 Menschen einen neutralen Online-Artikel zum Thema Nanotechnologie lesen. Die Probanden mussten unter dem Text auch die Kommentare lesen – dabei wurden die Studienteilnehmer in zwei Gruppen geteilt. Die eine Gruppe verfolgte eine sehr lebhafte Diskussion mit reichlich Widerspruch, jedoch ohne Schimpfworte. Die zweite Gruppe las die gleichen Leserkommentare, nur mit einem Unterschied: Es wurden hier auch noch Beleidigungen eingefügt, die die Wissenschaftler sorgfältig ausgewählt und vorab auf ihre Tonalität getestet hatten. Zum Beispiel hieß es in einem Kommentar: „Wer die Vorzüge des Einsatzes von Nanotechnologie nicht versteht, ist ein Idiot.“

In einem Gastbeitrag in der New York Times bezeichneten die Forscher ihre eigenen Ergebnisse als „verstörend“. Es stellte sich heraus: Schimpfworte hatten einen erheblichen Einfluss, wie Menschen über Nanotechnologie dachten. Jene Studienteilnehmer, die Beschimpfungen lasen, verbarrikadierten sich umso mehr in ihrer Sichtweise. Wer tendenziell eher für Nanotechnologie war, zeigte sich danach umso überzeugter davon. Wer sie eher ablehnte, verteufelte sie danach umso stärker. Die Gruppe hingegen, die keine Schimpfworte gelesen hatte, war nicht so extrem gespalten. Das Ergebnis der Studie erlaubt also den Schluss, dass man rein mit Schimpfworten Diskussionen zur Eskalation führen kann.

 

Schimpfworte verpesten das Klima

Schimpfworte und verbale Attacken auf die Person verpesten das Klima – das mag im ersten Augenblick nicht sonderlich spektakulär klingen. Doch genau diese Eskalationsstrategie birgt eine Gefahr für unsere Demokratie: Wir brauchen auch online die Fähigkeit, sachlich miteinander diskutieren zu können. Dies wird umso wichtiger, je stärker gesellschaftliche Themen in den sozialen Medien und auch in Onlineforen ausgehandelt werden. Ein großer Teil des Austauschs findet längst im Web statt: Wie Bürger über eine Obergrenze für Flüchtlinge oder über eine Frauenquote in Parteien denken, wird mittlerweile in den digitalen Kommentarbereichen mitentschieden. Doch hier geben häufig die Rüpel den Ton an. Man kann rein mit Aggression, ganz ohne Argumente eine Diskussion eskalieren lassen und eine Konsensfindung verunmöglichen. Umso wichtiger ist es, online wieder schimpfwortfreie Diskussionsräume herzustellen. Wir müssen solche Mindeststandards des sachlichen Debattierens engagiert verteidigen.

Zur Klarstellung: Es geht mir hier dezidiert um Beleidigungen, nicht um sachlichen Widerspruch. Wenn also wie gesagt über die Frauenquote oder die Obergrenze für Flüchtlinge diskutiert wird, ist es ganz normal, dass unterschiedliche Positionen hierzu bezogen werden. Nicht in Ordnung ist es aber, ständig die Diskussion mit Schimpfworten auf eine rein emotionale Ebene zu heben, oder genau betrachtet: dorthin zu senken. Worte wie „Dummbratze“ oder „Idiot“ haben eine toxische Wirkung. Wenn ein solcher Kraftausdruck fällt, dann führt dies zur Polarisierung – und dazu, dass Menschen nicht mehr ganz so offen gegenüber anderen Sichtweisen sind.

 

Härteste Wortmeldungen garantieren Aufmerksamkeit

Ob Glaubenskrieger bewusst oder unbewusst diese Eskalation betreiben, ist nicht eindeutig festzumachen: Zum einen sind sie selbst Getriebene ihrer unbeirrbaren Überzeugung, sie sehen die Welt ja tatsächlich in Schwarzweiß. Zum anderen ist einigen dieser Akteure wohl mit Sicherheit bewusst, dass ihnen die Aggression nützt. Sie sehen den Applaus und die Aufmerksamkeit, die ihnen ausgerechnet die härtesten Wortmeldungen bringen. Das ist nicht nur im Internet der Fall. Speziell die Rechtspopulisten beherrschen dieses Spiel mit der gesellschaftlichen Empörung. In Österreich agiert die FPÖ seit Jahrzehnten nach diesem Muster, in Deutschland tut es mittlerweile auch die AfD. Allerdings funktioniert im Internet die Form der Provokation besonders gut: beispielsweise bekommen Kommentare mit Schimpfworten eher Likes. Und der Facebook-Algorithmus macht Wortmeldungen, die viele Reaktionen auslösen, entsprechend mehr Menschen sichtbar.

 

Versachlichung und Engelsgeduld

Was können wir konkret gegen Beleidigungen tun? Der einzelne User hat hier bedauerlicherweise nur begrenzte Handlungsmöglichkeiten, er kann sich meist lediglich rhetorisch zur Wehr setzen. Ich empfehle dabei, selbst auf Beschimpfungen zu verzichten – auch wenn es einem in den Fingern juckt. Nehmen wir an, Ihnen ist Empathie gegenüber geflohenen Menschen wichtig und Sie verteidigen diesen Standpunkt in einer öffentlichen Diskussion im Web. Die Wahrscheinlichkeit ist hoch, dass Ihnen viel Häme entgegenschlägt, dass Sie als „Gutmensch“ oder als „Bahnhofsklatscher“ bezeichnet werden. Das sind durchaus verletzende Worte, weil sie den Eindruck erwecken, Empathie sei etwas Schlechtes. Mein Tipp für diesen Fall: Weisen Sie auf diese Untergriffe hin. Sagen Sie: „Ich bitte darum, dass wir diese Diskussion sachlich und ohne Schimpfworte führen.“ Wenn der andere mit seiner Aggression nicht aufhört, schreiben Sie: „Sie haben mich nun schon mehrfach beleidigt. Bleiben Sie bitte sachlich, sonst ist eine konstruktive Diskussion unmöglich.“

Oft erfordern solche hartnäckigen Rüpel eine Engelsgeduld. Diese lohnt sich aber, weil häufig viel mehr Menschen bei einer derartigen Diskussion passiv mitlesen als aktiv dabei mitzuschreiben – Worte haben also dementsprechend Gewicht. Wenn Sie in Ihren Kommentaren geduldig bleiben und rhetorische Untergriffe als solche benennen, ist dies für Ihr Gegenüber frustrierend. Glaubenskrieger zielen darauf ab, dass Sie selbst ruppig werden und sie als „hirnlos“ oder gar als „Nazi“ bezeichnet werden. Passiert das, schreit der Glaubenskrieger prompt zurück: „War ja klar! Für diese Gutmenschen ist jeder ein Nazi, der etwas anders sieht als sie.“ In diesem Fall passiert etwas Problematisches: Der aggressive User erntet womöglich Sympathie, er kann sich jetzt als Opfer inszenieren. Tun Sie ihm lieber nicht den Gefallen, Schimpfworte zu verwenden. Thematisieren Sie es lieber selbst, wenn jemand Ihnen gegenüber beleidigend wird.

 

Die Verantwortung von Facebook und Co.

Das Ansprechen von aggressivem Verhalten reicht aber oft nicht aus. Der einzelne Internetuser kann das Problem des Hasses nicht im Alleingang lösen. Wir brauchen die Unterstützung von Onlinemedien, Webseitenbetreibern, Social-Media-Zuständigen und den großen Internetkonzernen. Sie haben die Möglichkeit, Nutzer vor den allerschlimmsten Beleidigungen zu schützen und eine klare rote Linie zu ziehen. Deswegen ist es klug, dass von Seiten der Politik und auch von Journalisten zunehmend Verantwortung von Facebook eingefordert wird. Dieser Internetriese hat einen ungeheuren Einfluss auf die Art und Weise, wie Menschen online miteinander sprechen. In seinen eigenen Gemeinschaftsstandards bekennt sich Facebook auch zu einer Diskussion möglichst ohne Hass. Dort schreibt das Unternehmen:

„Facebook entfernt sämtliche Hassbotschaften, d. h. Inhalte, die Personen aufgrund der folgenden Eigenschaften direkt angreifen: Rasse, Ethnizität, nationale Herkunft, religiöse Zugehörigkeit, sexuelle Orientierung, Geschlecht bzw. geschlechtliche Identität oder schwere Behinderungen oder Krankheiten.“

Würde Facebook seine eigenen Regeln einhalten, hätten wir weit weniger Probleme. Doch häufig passiert das nicht: User melden eine hetzerische Wortmeldung und Facebook schreibt zur Verwunderung vieler Menschen zurück, dies verstoße nicht gegen die Community-Regeln. Beispielsweise meinte ein Österreicher auf dem sozialen Netzwerk zu einreisenden Flüchtlingen: „Nur Tränengas, viel zu Schwach!! Hochspannung gehört auf den Zaun, wenns ankommen muss es Zischen und es gibt Gegrillte Islams yeee!“ Diese Wortmeldung war laut Facebook keine Hassbotschaft, die gegen die eigenen Community-Regeln verstößt.

Sowohl in Deutschland als auch in Österreich wurden Facebook oder Facebook-Manager für das Tolerieren derartiger Wortmeldungen angezeigt, zum einen vom Würzburger Anwalt Chan-jo Jun, zum anderen vom Wiener Journalisten Michael Nikbakhsh vom Nachrichtenmagazin profil. In beiden Anzeigen wird argumentiert, dass Facebook rechtlich verpflichtet ist, strafrechtlich relevante Äußerungen zu löschen, wenn das Netzwerk über diese informiert wird.

Der deutsche Justizminister Heiko Maas startete ebenfalls eine Debatte über diese Verantwortung seitens des sozialen Mediums, der sich sein österreichischer Amtskollege Wolfgang Brandstetter anschloss. Facebook reagierte durchaus: Das Moderatorenteam wurde ausgebaut. Dafür beauftragte das soziale Netzwerk das Unternehmen Arvato, das zum Bertelsmann-Medienkonzern gehört. 200 Moderatoren sitzen nun zusätzlich in Berlin und überprüfen Facebook-Einträge. Rechtswidrige Wortmeldungen sollen binnen 24 Stunden entfernt werden, kündigt das Unternehmen an. Ob die Kontrolle von hasserfüllten Botschaften künftig also besser funktioniert?

Für ein Urteil ist es noch zu früh. Insgesamt halte ich aber den öffentlichen Druck, der auf bedeutende Konzerne wie diesen ausgeübt wird, für enorm wichtig: Würde Facebook allein jene Wortmeldungen löschen, die strafrechtlich relevant sind oder gegen die eigenen Regeln des Netzwerks verstoßen, wäre die Situation schon deutlich besser als bisher. Facebook hingegen betont gerne, wie wichtig Widerrede („Counter Speech“) sei – also dass Menschen gegen hasserfüllte Rede das Wort ergreifen. Das stimmt. Es braucht aber beides: Mutige Bürger und Webseitenbetreiber, die sie vor den schlimmsten verbalen Übergriffen oder gar Bedrohungen schützen.

 

Die Moderationsaufgabe der Medien

Dies gilt übrigens auch für Online-Medien. Der Hass in den eigenen digitalen Räumlichkeiten stellt für viele Redaktionen eine echte Herausforderung dar: Moderatorenteams, die rund um die Uhr auf der eigenen Facebook-Seite oder im Leserforum überall mitlesen, kosten viel Geld. Manche Medien drehen sogar lieber die Kommentarfunktion ab, als in die Moderation ihrer Kommentarspalten weiter zu investieren. Die Nachrichtenagentur Reuters beispielsweise hat die Kommentarfunktion unter den Nachrichtentexten schon im November 2014 abgeschaltet und konzentriert sich seither auf Social Media. Eine Schattenseite hat dieses Vorgehen aber ganz klar: Die Debatte wird an eine Handvoll amerikanischer Unternehmen – großteils an Facebook – ausgelagert. Dort können Medien zwar die technischen Tools nutzen, die das Netzwerk ihnen als Fanpage-Betreiber anvertraut. Sie haben aber keinerlei eigenen technischen Gestaltungsspielraum. Hier machen sich Medien zunehmend von einem großen IT-Unternehmen abhängig.

Dabei geht es auch anders: Im deutschsprachigen Raum ist Zeit Online ein Best-Practice-Beispiel. Die Redaktion hat schon früh die Verantwortung für ihre digitale Debatte übernommen. Jeder Kommentar wird dort von einem Moderator gelesen. Insgesamt sind zwei Community-Redakteure und 15 Moderatoren für 50.000 Lesermeldungen pro Woche zuständig und greifen notfalls ein, wenn unsachlich oder untergriffig argumentiert wird. Sie gehen dabei aber stets transparent vor. Anstelle der gelöschten Wortmeldung steht dort dann beispielsweise: „Entfernt. Bitte verzichten Sie auf Gewaltrelativierungen. Danke, die Redaktion.“ Oder: „Entfernt. Bitte bleiben Sie beim Artikelthema. Danke, die Redaktion.“ Zeit Online macht in ihrer „Netiquette“ klar, welche Regeln sie beim Diskutieren erwartet. Die allererste Regel lautet: „Beleidigungen haben in den Diskussionen keinen Platz. Wenn Sie einem Artikel oder Kommentar widersprechen, kritisieren Sie dessen Inhalte und greifen nicht den Verfasser an.“

Genau darum geht es: Wir brauchen mehr solche Diskussionsräume, in denen es die Glaubenskrieger nicht ganz so einfach haben – und mit plumpen Beleidigungen sehr viel Diskussionspotenzial verunmöglichen können.

 

Von Ingrid Brodnig erscheint am 25. April 2016 im Brandstätter Verlag das Buch „Hass im Netz. Was wir gegen Hetze, Mobbing und Lügen tun können.“ Dieser Text ist eine gekürzte und leicht abgeänderte Fassung des Kapitels „Hass als Instrument“.

 


 

Möchten Sie regelmäßig über neue Texte und Debatten auf CARTA informiert werden? Folgen (und unterstützen) Sie uns auf Facebook und Twitter. Den Newsletter „Die Woche auf CARTA“ bestellen Sie hier. Und Spenden nehmen wir gerne via PayPal entgegen.