Filter Bubble und Propaganda: Wie wir mit „Nachrichten“ besser umgehen sollten

Während Algorithmen Nutzerverhalten und Präferenzen zu Zwecken möglichst zielgruppengenauer Werbung filtern, wissen viele User gar nicht, wie sie Quellen prüfen können und wie Webdienste Meinungsbildungsprozesse beeinflussen. Unaufmerksamer Umgang damit kann zu einer gleich doppelten Gefahr für unsere demokratischen Werte führen.

Die Zeiten, in denen vor allem Journalisten die Welt erklärten und aus allen Himmelsrichtungen berichteten, sind vorbei. Jetzt geht es darum, sich gemeinsam mit den Usern – es sind ja nicht mehr nur Leser oder Zuschauer – darüber auszutauschen, wie die Welt so funktioniert. So entstehen Debatten und Erkenntnisse, Verständnis und Entwicklung. Auf Augenhöhe, interaktiv, nicht linear, die Ketten der Informationsgewinnung sind vielseitig geworden.
So kann man das sehen, wenn es gut läuft.

Wenn es aber schlecht läuft, muss man fürchten, dass jeder, der eine Tastatur unfallfrei bedienen kann, seine Wahrheit publikumswirksam veröffentlicht und verbreitet. Darin liegt zwar eine große Chance, aber auch eine große Gefahr: die der ungefilterten Falschmeldungen, bis hin zur Propaganda.

Gerade die vergangenen Wochen zeigten mal wieder, dass man beispielsweise kein echter Islamexperte sein muss, um über „die Muslime“ und „den Islam“ zu sprechen, und längst auch kein Journalist mehr, um Nachrichten zu verbreiten und dazu Stellung zu beziehen. Erneut ist mir auf sehr erschreckende Weise aufgefallen, woran es in Punkto Medienkompetenz leider häufig fehlt: das richtige Einordnen und Bewerten von Quellen.

Selbst Leute, denen ich es nicht zugetraut hätte, brachten mir in jüngster Zeit Online-Artikel als Beweis für Thesen, bei deren genauerer Betrachtung einem schnell hätte klar werden müssen, dass es sich eindeutig um hetzerische Seiten handelt, die kein anderes Ziel verfolgen, als zu emotionalisieren und gegen eine bestimmte Ethnie, Religion, Minderheit oder sexuelle Identität zu mobilisieren.
Den meisten möchte ich unterstellen, dass sie Falschmeldungen nicht boshaft und absichtlich verbreiten, sondern davon ausgehen, sie seien „echt“.

Als Journalist geht man für gewöhnlich auf Merkmale, die auf eine Religion, Ethnie oder sexuelle Präferenz Rückschluss geben, nur dann ein, wenn sie in Bezug auf die Nachricht besonders relevant sind. Bei Einzelpersonen spielt dabei auch eine Rolle, wie bekannt diese Person ist. Die sexuelle Präferenz eines Politikers in einem hohen Amt ist, unter Umständen relevant – wie z.B. uneheliche Affären, etwa dann, wenn er das Amt des Familienministers bekleidet oder anderweitig qua seiner Funktion oder Ansichten für bestimmte Werte steht. Anders bei einem weitgehend unbekannten Mann, der zum Beispiel Steuern hinterzogen hat, und deshalb Schlagzeilen macht, weil er vor Gericht steht.

Simplifizierung und Verallgemeinerung sollten skeptisch machen

Propaganda-Seiten betonen eigentlich unerhebliche Merkmale besonders oder lassen Antworten auf naheliegende Fragen weg. Oft simplifizieren sie im Zusammenhang mit Worten wie „schrecklich“, „brutal“ oder schlicht „schon wieder“, indem sie den Fokus auf ein Merkmal legen, das im Kontext betrachtet weit weniger „schlimm“ ist.
Wenn wir schon alle Multiplikatoren sind, dann geht es jetzt darum, genau das zu erkennen, um so dem Verbreiten von Hass und Vorurteil Einhalt zu gebieten. Mancher User scheint mit dem Prüfen und Einschätzen von Nachrichten, deren Quellen und mit Filtervorgängen im Internet überfordert. Viele bemerken Hetze und Propaganda einfach nicht. Anders ist nicht zu erklären, dass Links wie:

Das Problem ist damit gleich ein doppeltes. Denn während viele das Filtern offenbar nicht richtig beherrschen, verlieren sie außerdem den Überblick darüber, wie sehr Webdienste und Apps ihren Meinungsbildungsprozess beeinträchtigen.

Filter Bubble

Wie das geht, erklären Leute wie der amerikanische Rechts- und Politikwissenschaftler Eli Pariser in seinem Buch „The Filter Bubble“ und Belabbes Benkredda, Gründer der Munathara Initiative, die erfolgreich on- und offline Debattenkultur in der arabischen Welt etabliert.

Pariser etwa erläutert, wie Facebook sein Userverhalten analysierte und ihm daraufhin auf ihn zugeschnittene, personalisierte Posts und Werbung anzeigte.
Die Krux: Dieser Prozess bemisst sich daran, welche Inhalte der User anklickt, liked und ob er kommentiert. Allerdings kann man einen Post natürlich lesen und mögen, ihn aber nicht liken, anderer Meinung sein, dies aber nicht in Form eines Kommentars äußern. Und selbst wenn: Bei den statistischen Verfahren spielt überhaupt keine Rolle, weshalb man etwas liked oder kommentiert und was man genau dazu sagt. Sondern nur, ob.

Diese Algorithmen, die Facebook, aber auch andere Webdienste wie Google, Amazon oder Yahoo verwenden, um möglichst gut zugeschnittene Werbung schalten zu können, funktionieren weitgehend inhaltsneutral und so werden nicht nur Konsumprodukte gefiltert, sondern auch alles andere, was so interessiert.

Wer das nicht bewusst beobachtet, bemerkt diese Filter nicht. Sie laufen im Hintergrund – unsichtbar und sind technisch weit ausgeklügelter als das Verständnis der meisten User. So passiert es schnell, dass wir uns in einer Filterblase bewegen, wenn wir dem keine Aufmerksamkeit schenken. Die Folgen daraus betreffen, sofern wir publizieren und verbreiten, aber nicht nur uns selbst.

Jeder ist Teil er Öffentlichkeit, Sender und Empfänger zugleich

Denn als Nutzer sozialer Medien und Portale sind wir Empfänger und Sender gleichermaßen – und damit Teil der Öffentlichkeit. Und Öffentlichkeit ist, wie Belabbès Benkredda in einem TED-Talk erklärt, das, was wir gemeinhin als praktisch gelebte Demokratie verstehen – hier werden Ideen präsentiert, Diskussionen geführt, Meinungen gebildet. Was aber, wenn unser Weltbild durch die oben erwähnte Selektion quasi stetig bestätigt wird und frei von Widerspruch und Auseinandersetzung bleibt?

Benkredda warnt: „Wenn wir Öffentlichkeit sich selbst überlassen, dann wird diese häufig ausgrenzend und zerfällt in Fragmente. Wenn zueinander in Opposition stehende Seiten sich nicht mehr zuhören wollen, nicht mehr aufeinander reagieren, sondern bloß noch Identifikation durch Abgrenzung schaffen und in ihren Thesen verharren, dann findet eine Spaltung der Öffentlichkeit statt und Fronten verhärten sich. An einem gewissen Punkt beginnen die Leute, eigene Subgesellschaften in der Öffentlichkeit zu bilden, in der sie sicher sein können, dass keiner ihnen widerspricht.“

Der 37-Jährige hat die von ihm beschriebenen Prozesse beobachtet, etwa in Ägypten, wo nun komplett voneinander unabhängige, rivalisierende Gruppen leben. „Die sozialen Medien, die einst als das Werkzeug für den Kampf der Unterdrückten in der Diktatur gefeiert wurden, als die Wurzel des Arabischen Frühlings, genau diese sozialen Medien führen nun dazu, dass sich das Land weiter spaltet“, sagt er.

Christoph Kappes blickt mit weit weniger Sorge auf dieses Thema, zumindest was Europa und den Westen betrifft. In einem Aufsatz mit dem Titel Warum die Gefahren der Filter Bubble überschätzt werden schrieb er schon 2012, dass bereits vor dem Internet Prozesse stattgefunden hätten, die als Filter fungierten – von der Auswahl der Nachrichten in den Redaktionen, bis hin zu der Tatsache, dass kein Leser alles liest, sondern nur Ausgewähltes und Gewohntes.
Nicht zuletzt kann ein Abo wie eine Informations-Blase wirken, wenn man quasi ausschließlich dieses eine Medium als Informationsquelle bezieht und daran nie etwas ändert.

Die Filter Bubble sei folglich nicht bedrohlich, fasst Kappes zusammen, sondern ganz normal. Immerhin habe man im Handelsblatt immer schon eher Klagen über Steuerlast erwartet, statt über Preistreiberei bei Lebensmitteln durch Börsenhändler. Und wir wüssten auch immer schon, „dass die taz keine Guttenberg-Exklusivinterviews hat“.

Medienmasse statt Massenmedien

Den Unterschied zu heute aber macht meiner Meinung nach aus, dass aus einer Welt der Massenmedien eine der Medienmasse geworden ist. Und dass der Leser, der sich in einem der vielen neuen Medien bewegt, und immer wieder neue entdeckt, eben nicht mehr auf den ersten Blick erkennt, wer oder was die Quelle einer Information ist, welche Haltung und Kompetenz dabei gegebenenfalls eine Rolle spielen, ob eine Nachricht überhaupt stimmt, und wo Journalismus aufhört und Blogging – also eine durchaus auch von Journalisten betriebene, aber weit persönlichere und selektierende, oft meinungsstarke Form des Publizierens – oder auch Propaganda beginnt.

Fakt ist, dass immer weniger Menschen aktiv Nachrichten beziehen, indem sie eine Zeitung abonnieren, oder die Startseite eines Online-Mediums direkt aufrufen. Anstatt also beispielsweise spiegel.de, stern.de, welt.de oder taz.de in den Browser einzugeben, rufen die allermeisten Menschen – wie eine Studie von TNS Infratest ergeben hat – ihre Emails ab und checken ganz nebenbei den Nachrichten-Feed des dazu gehörigen Internetportals. Andere werden auf Facebook, Twitter oder anderen sozialen Medien eher passiv und überwiegend doch von ihren Freunden, also potentiell gleichdenkenden und ähnlich interessierten Menschen, an Nachrichten heran geführt.

Hinzu kommt, dass auch immer weniger gelesen, sondern viel öfter gescannt wird. Man überfliegt Online-Inhalte mit den Augen nach Form eines „F“. Wenn Zeile, Keywords und die ersten Worte nicht passen, wird gleich abgesprungen. Wie eine Studie von deutschen Informatikern ergeben hat, dauert das Gros der Webseitenaufenthalte weniger als vier Sekunden. Differenzierte Auseinandersetzung ist so kaum noch möglich.

Wirken Titelbild, Teaser und Zeile ansprechend genug, werden Links häufig schon geteilt, ehe der Content überhaupt gelesen wurde. Und auch, wenn ich es zugegebenermaßen empirisch nicht belegen kann, so ist zu vermuten, dass sich erst recht kaum einer die Mühe macht, eine zweite oder dritte Quelle zu recherchieren, Betreiber einer Seite zu prüfen, oder Gegenmeinungen heranzuzuziehen, um einen Meinungsprozess und auch die Debatte mit anderen umfänglich und frei zu gestalten.

Mit Kappes bin ich daher einer Meinung, wenn er schreibt, dass sich „die Filterung selbst immer mehr auf uns als Empfänger verlagern“ müsse, „weil wir in Zeiten einer komplexer werdenden Welt im Zweifel am besten wissen sollten, was für uns wichtig ist.“

Aber tun wir das? Umfassend und alle?

Hass entwickelt sich im Netz exponentiell

Angesichts all dieser Entwicklungen finde ich die Frage, die ein Kollege kürzlich auf Facebook stellte, durchaus sehr spannend: Wären die Nazis mit Social Media eher an die Macht gekommen oder eher nicht?

Neben Filter Bubbles und Kampagnenfähigkeit spielt dabei auch eine Rolle, welche Möglichkeiten Widerstand im digitalen Zeitalter hat. Zur Zeit der Machteroberung der „Nationalsozialistischen Deutschen Arbeiterpartei“ waren die Chancen von Gegenbewegungen, ihre Erkenntnisse zu streuen und als Gemeinschaft auch über Ortsgrenzen hinaus zu agieren, gering. Bei Pegida und ihren Gegenbewegungen sieht man heute, wie anders das sein kann.

„Doch in der Praxis zeigt sich, dass die Erreichbarkeit von Wissen nicht unbedingt in Wissen mündet“, las ich kürzlich in der FAZ . Das gilt natürlich tendenziell sowohl on- als auch offline, mit dem entscheidenden Unterschied, dass sich dieses Unwissen beziehungsweise als Wissen verstandener Glaube online schneller und einfacher verbreiten lässt.

Gefühle wie Hass entwickeln sich im Netz häufig exponentiell. Wer differenziert, scheint oft überhört und überlesen zu werden. Und während der Wahn, eine ganz bestimmte „Wahrheit“ zu vertreten, leicht Verbreitung und neue Anhänger findet, scheitert Aufklärung – da zu differenziert und umfänglich – häufig und viel zu schnell.

Vielleicht ist der Gedanke über die Rolle von sozialen Medien mit Blick auf Diktaturen und Radikale zu müßig, ob der Tatsache, dass etwa die Nazis Facebook & Co wohl bald verboten hätten, womöglich die Nutzung des Internets als solches, da politisch kaum steuerbar.
Gleichschaltung war immerhin einer der Grundpfeiler ihrer Machteroberung.

Dennoch führt der Gedanke allein zu der wichtigen Erkenntnis, dass Pluralismus einer der ganz bedeutenden Grundpfeiler unserer heutigen Demokratie ist, die es zu verteidigen gilt – zur Not auch gegen Konzerne, die diese gefährden, indem sie deutsche und europäische Gesetze missachten und mit ihren maschinellen Infofiltern den Mensch praktisch entmündigen.
Die wegen der neuen AGBs für April geplante Sammelklage gegen Facebook ist – vor allem dann, wenn der Einzelne sich ob beruflicher, also existenzieller Gründe zu einem Austritt aus einem Netzwerk etwa nicht in der Lage sieht – daher ein richtiger und wichtiger Schritt in einer Welt, die eine andere geworden ist, seit Journalisten bei der Generierung und Verbreitung von Nachrichten und Informationen nicht mehr alleine sind.

Das bedeutet für jeden, der Seiten betreibt, Links teilt und Videos verbreitet: Verantwortung.

In diesem Sinne ein paar Tipps und Infos zu zwei grundsätzlichen Fragen:

Wie entgehe ich der Filterbubble?

Facebook bietet immerhin seit einiger Zeit den Link „Missed Stories“ an.: Hier findet man Meldungen, die es nicht in die eigene, gefilterte Facebook-Timeline geschafft haben.

Auch schon mal festgestellt, dass man eine Fan-Page „liked“ und dann sieht man nie wieder etwas davon? Wie es dazu kommen kann, liest man hier. Wie man das ändern kann, erfährt man hier bei einem Webdienst, der nach Eingabe der Fanpage-Adresse einen RSS-Feed generiert, den man dann im Feedreader abonnieren kann.

Wie erkenne ich hetzerische Inhalte und wie gehe ich damit um?

Als Leser darf und soll man sich fragen:

  • Liefert der Bericht sachliche (!) Informationen darüber, wie es zu etwas kam? Wertungen wie „brutal“, „schrecklich“, „schlimm“ zeigen, dass eher emotionalisiert werden soll, statt informiert.
  • Werden Vorurteile bedient: „Wie in afrikanischen Ländern üblich..“, „das ist schon der x-te Angriff von Muslimen“?
  • Wird besonders an ein Gerechtigkeitsempfinden appelliert oder die absolute Wahrheit für sich beansprucht: „Was uns immer verschwiegen wird, ist..“ , „in der Berichterstattung bislang unerwähnt bleibt…“?
  • Werden Personen oder Menschengruppen beleidigt?
  • Ist der Betreiber der Seite eine Einrichtung? Eine Privatperson? Kann er/sie sich als Experte/in ausweisen? Geben Sie im Zweifel mal den Namen in eine Suchmaschine ein, wobei auch hier bedacht werden muss, dass in Gefechten um Meinungsführerschaft auch Verunglimpfendes und Unwahres über diese Personen/Institution verbreitet werden kann. Lesen Sie im Zweifel immer mehrere Quellen – im Journalismus heißt es immer, dass man sich mindestens auf zwei unterschiedliche und voneinander unabhängige Quellen beziehen sollte.
  • Werden Quellen überhaupt angegeben? Oder werden Beweise für Behauptungen nicht als nötig erachtet?
  • An welche Zielgruppe wendet sich die Seite? Ein Blick etwa in die Kommentarspalten kann da Aufschluss geben.
  • Versuchen Sie, einen Überblick zu gewinnen. Zeichnen alle Texte der Seite in der Gesamtschau ein bestimmtes Bild von einer Religion, Ethnie oder Minderheit? Oder handelt es sich eher um eine Ausnahme, dass wort- und meinungsstarke Texte in Zusammenhang mit diesen publiziert werden? Gibt es auf em Portal, auf dem der Text veröffentlicht ist, auch Gegenmeinungen? Oder bleiben Thesen ohne Widerspruch und Auseinandersetzung? Oft gibt erst der Blick aufs Ganze Aufschluss, wie die einzelne Nachricht einzuordnen ist.
  • Hetzerische Online-Inhalte können zum Beipiel gemeldet werden bei:
  1. der Internet Beschwerdestelle http://www.internet-beschwerdestelle.de/
  2. bei eco.de, einer Seite der deutschen Internetwirtschaft für mehr Sicherheit von Netzwerken und Systemen.

Möchten Sie regelmäßig über neue Texte und Debatten auf Carta informiert werden? Folgen Sie uns auf Facebook und Twitter.