Welches Netz möglich wäre

Wir sollten nicht nur darüber reden, wie das Internet derzeit ist, sondern zunehmend, wie es eines Tages aussehen könnte. Warum sollten Algorithmen im Gegensatz zu vielen anderen Produkten keiner Qualitätskontrolle unterliegen? Es ist kein Naturgesetz, dass das Missbrauchspotenzial oder unvorteilhafte Nebeneffekte neuer Technologie rechtzeitig erkannt und bekämpft werden.

Mein letztes Buch („Hass im Netz“) schloss ich mit einem historischen Beispiel ab. Ich meinte, die jetzige Phase des Internet lässt sich mit der Frühzeit des Automobils vergleichen. Auch das Auto hat sich erst mit der Zeit zu jenem mächtigen Gefährt entwickelt, das es heute ist. Wichtige Sicherheitsapparaturen wie Scheibenwischer, Gurte bis hin zu Airbags wurden erst mit der Zeit entwickelt. Auch kamen immer mehr Gesetze für den korrekten Umgang im Straßenverkehr hinzu. Ich argumentierte, dass wir im Netz nun in einer vergleichbaren Phase angekommen sind, in der wir auch für das Internet mehr Sicherheitsmechanismen gegen den Missbrauch dieser wunderbaren Erfindung einfordern müssen.

Allerdings möchte ich aus heutiger Sicht ergänzen: Natürlich ist auch möglich, dass die Geschichte diesmal einen anderen Lauf nimmt und wir es als Gesellschaft verabsäumen, genügend Schutzmechanismen und demokratische Kontrolle ins Netz einzubauen. Es ist kein Naturgesetz, dass das Missbrauchspotenzial oder unvorteilhafte Nebeneffekte neuer Technologie rechtzeitig erkannt und bekämpft werden.

Wahlen

Nehmen wir demokratische Abstimmungen – sowohl in Österreich als auch Deutschland wählen wir ja im Herbst 2017 das Parlament. Selbstverständlich können marktdominante Unternehmen wie Facebook und Google Einfluss auf Wahlen haben, wie ein groß angelegtes Experiment aus dem Jahr 2010 zeigte. Damals untersuchten Wissenschaftler in Kooperation mit Facebook, inwieweit Hinweise aus dem sozialen Netzwerk die Wahlbeteiligung erhöhen.

Eine riesige Versuchsanordnung: 60 Millionen Menschen, also ungefähr jeder vierte amerikanische Wähler, bekam auf Facebook einen Hinweis am Tag der US-Kongresswahlen eingeblendet. Die Nutzer sahen das Gesicht von Freunden, die online angegeben hatten, dass diese bereits wählen waren. Und man konnte selbst auch klicken, dass man die Stimme abgegeben hat.

Um zu ermitteln, ob diese Hinweise die Wahlbeteiligung beeinflussten, gab es auch zwei Vergleichsgruppen: 600.000 Facebook-Nutzer sahen die neutrale Information, heute sei Wahltag – ohne Gesicht ihrer Freunde. Weiteren 600.000 Facebook-Nutzern wurde gezielt gar kein Wahlaufruf eingeblendet. Diese Forschung war möglich, weil sich in den USA einsehen lässt, welche Bürger an welcher Wahl teilgenommen haben. Natürlich ist geheim, für wen der einzelne gestimmt hat, nur die Stimmabgabe wird offiziell erfasst. So konnte eruiert werden, welche Nutzer tatsächlich zur Wahl gegangen sind.

Es stellte sich heraus, dass der Wahlaufruf mit den Gesichtern von Freunden die Stimmabgabe erhöhte – bei diesen Nutzern stieg die Wahrscheinlichkeit der Wahlbeteiligung um 0,39 Prozentpunkte. Das klingt im ersten Moment nach wenig, in absoluten Zahlen bedeutet das aber: Insgesamt 340.000 Amerikaner waren zusätzlich wählen, weil Facebook ihnen den Hinweis zeigte – insgesamt stieg dadurch die Wahlbeteiligung in den gesamten USA um 0,14 Prozentpunkte. 0,14 Prozentpunkte können knappe Wahlen entscheiden: Hätte der Demokrat Al Gore im Jahr 2000 0,14 Prozent mehr Stimmen in Florida gehabt, wäre er Präsident der Vereinigten Staaten geworden – und nicht der Republikaner George W. Bush.

Dass ein einzelner simpler Beitrag im News Feed auf Facebook die Wahlbeteiligung einer ganzen Nation um 0,14 Prozentpunkte verändern kann, ist bemerkenswert. Gerade weil Facebook so eine immens große Verbreitung in der Bevölkerung hat, war eine messbare Beeinflussung des Wahlverhaltens möglich. Die Wissenschaftler rund um den Politologen James Fowler notierten in ihrer Studie: „Die Möglichkeit, online sehr große Bevölkerungsgruppen zu erreichen, bedeutet, dass selbst kleine Effekte eine Verhaltensänderung von Millionen von Menschen hervorrufen können.“1

Übrigens wiederholte Fowler das Experiment bei der US-Präsidentenwahl 2012 mit Kollegen noch einmal – und es kamen wieder vergleichbare Ergebnisse heraus.2 Diese Untersuchungen sind faszinierend, deuten aber auch auf ein potenzielles Missbrauchspotenzial hin: Theoretisch hätte das soziale Netzwerk die Möglichkeit, zumindest knappe Wahlen zu beeinflussen: Es könnte einfach den Anhängern einer Partei viel intensiver Wahlaufrufe anzeigen als dem Rest des Landes. Ich glaube nicht, dass Facebook Derartiges macht – nur ist es entscheidend, sich der Missbrauchsmöglichkeiten bewusst zu sein.

Macht und Filterblasen

Die schiere Popularität von großen Plattformen führt dazu, dass diese Unternehmen einen ungeheuerlichen Einfluss auf unsere Gesellschaft haben. Noch nie war so viel mediale Macht in der Hand einzelner weniger Entscheidungsträger. Während es eine Vielzahl von TV-Sendern, Zeitungen oder Radiostationen gibt, zeigt sich im Netz eine starke Konzentration auf einige wenige Anbieter. Insgesamt ist das Fernsehen wohl das mächtigste politische Medium in den USA, nur teilt sich die Aufmerksamkeit der TV-Zuschauer auf unterschiedliche Kanäle auf. Ein Vergleich: Fox News erreicht zum Beispiel jeden Tag 1,72 Millionen Amerikaner – das berechnete Marktforscher Nielsen im ersten Quartal 2017.3 Facebook nutzen jeden Tag in den USA und Kanada 182 Millionen Menschen – das geht aus dem Unternehmensbericht für das erste Quartal 2017 hervor.4

Weil Facebook und Google so mächtig geworden sind, wird zunehmend die Frage gestellt, nach welchen Kriterien denn Google die Suchergebnisse reiht oder Facebook entscheidet, was Nutzern angezeigt wird und was nicht. Wie schon dargelegt, sind hier Algorithmen am Werk – komplexe Software, die basierend auf den Vorgaben von Programmierern Entscheidungen trifft, welche Inhalte Menschen dann eingeblendet bekommen.

Im Jahr 2012 durfte ich Eli Pariser interviewen, Aktivist, Mediengründer, Buchautor und Erfinder des Begriffs „Filterblase“. Diese Theorie beschreibt die Gefahr, dass wir von Algorithmen nur jenen Teil der Realität eingeblendet bekommen, die zu unseren Vorlieben und Weltsicht passen. Pariser meinte damals zu mir: „Es ist definitiv ein Trugschluss, dass wir im Netz alles sehen können. Die großen Webseiten schneidern ihre Inhalte immer mehr auf uns zu. Sie liefern uns Nachrichten und Angebote, von denen sie glauben, dass sie zu uns passen. Es ist ein unsichtbarer Prozess, den wir oft gar nicht mitbekommen. Und am Ende bekommt jeder seine eigene Version der Welt geliefert. Das ist auf lange Sicht schon ein Problem für unsere Entscheidungsfreiheit: Wir können ja nur zwischen jenen Optionen wählen, von denen wir wissen.“

Ihm behagt vor allem die Vorstellung nicht, dass Menschen aus unterschiedlichen politischen Lagern auch aufgrund der Filterblase auseinanderdriften könnten: Weil womöglich der Algorithmus von vornherein Inhalte ausfiltert, die nicht den eigenen Interessen entsprechen, könnte die Technik die Einengung des Sichtfelds verstärken.

Gerade bei sozialen Medien und Suchmaschinen stellt sich die Frage, ob dort Filterblasen-Effekte entstehen, denn ihre Ergebnisse werden auf den einzelnen zugeschnitten. Facebook zum Beispiel schreibt in öffentlichen Stellungnahmen: „Unser Ziel mit News Feed ist, Menschen jene Geschichten anzuzeigen, die für sie am relevantesten sind.“5 Nur was ist für den einzelnen relevant? Facebook-Gründer Mark Zuckerberg soll einmal zu Kollegen gesagt haben: „Ein Eichhörnchen, das in deinem Vorgarten stirbt, ist womöglich gerade relevanter für deine Interessen, als Menschen, die in Afrika sterben.“6

„Relevanz“ ist ein komplexer Begriff; unterschiedliche Menschen verstehen offensichtlich unterschiedliche Dinge darunter. Wenn Pariser von „Relevanz“ spricht, meint er nicht unbedingt das Eichhörnchen im Vorgarten, viel mehr weltpolitisch relevante Ereignisse.

Bedenken Sie: Facebooks Definition von Relevanz beeinflusst jeden einzelnen Tag, was 1,28 Milliarden Menschen über die Welt erfahren. Doch der einzelne Bürger kann bisher in den Settings nicht angeben, ob er möglichst gesellschaftlich bedeutungsvolle Beiträge oder eher seine direkte Umgebung sehen will – oder vielleicht eine gleichwertige Mischung aus beidem. Es wäre durchaus möglich, dass Facebook den Mitgliedern der Seite mehr Auswahl liefert. Zum Beispiel könnte das Unternehmen den Nutzern mehrere Algorithmen anbieten und sie entscheiden dann, welche Form der Nachrichtenselektion ihrer Definition von „Relevanz“ am nächsten kommt.

Da die Nutzer aber keine Auswahl haben, ist es umso interessanter, ob beim bestehenden Algorithmus von Facebook unvorteilhafte Effekte wie Filterblasen beobachtbar sind. Was sagt die Wissenschaft dazu? Ganz ehrlich – sie weiß es nicht so genau. Die bisher spärliche Forschung zeichnet kein klares Bild.

Lediglich ein Forscherteam bekam Einblick, den Effekt von Filterblasen auf Facebook zu messen – das waren Mitarbeiter von Facebook selbst. Im Sommer 2014 sahen sich drei Datenwissenschaftler des Unternehmens 10,1 Millionen amerikanische User an, analysiert wurden lediglich Personen, die eine politische Haltung angegeben und sich im Profil als „Liberale“ oder „Konservative“ bezeichnet hatten. Die Forscher werteten aus, ob der Algorithmus Nutzern Inhalte zurückhielt, die eher nicht zu ihrer politischen Ausrichtung passten. Der Effekt kam vor – allerdings nur im einstelligen Prozentbereich. Bei Konservativen hielt die Software fünf Prozent konträre Nachrichten zurück. Bei Liberalen waren es acht Prozent. Mindestens einer von 20 Inhalten, der womöglich nicht zur Weltsicht des Nutzers passte, wurde von der Technik ausgefiltert.7

Die Studie fand überdies Indizien für die Theorie der Echokammer, also dass Nutzer jene Beiträge eher mieden, die ihrem Weltbild nicht entsprachen. Konservative klickten 17 Prozent seltener auf solche Meldungen, bei Liberalen waren es sechs Prozent. Es gibt eine leichte Verengung des Blickfelds durch Algorithmen, und der Mensch selbst hat auch einen gewissen Tunnelblick.

Die Datenauswertung erntete heftige Kritik in der Science-Community. Forschung beruht auf dem Konzept der Reproduzierbarkeit. Als wissenschaftlich gesichert gilt eine Information erst, wenn ähnliche Studien zu vergleichbaren Ergebnissen kommen: Doch genau hier ist keine Reproduzierbarkeit möglich. Andere Wissenschaftler erhalten keinen Zugriff auf die Daten von Facebook – sie können dementsprechend nicht selbst nach Filterblasen suchen.8

Ab und zu zitieren Medien zwar neue Studien zu der Thematik – aber Vorsicht, in der Regel wird dabei nicht der Algorithmus, sondern menschliches Verhalten ausgewertet. So hieß es 2016 beispielsweise, eine Auswertung des Statistikers Seth Flaxman und seiner Kollegen würde Zweifel an der Filterblasen-Theorie nähren. Nur haben die Wissenschaftler damals lediglich das Browsing-Verhalten von Internetnutzern ausgewertet und ermittelt, worauf User auf Facebook klickten. Die Forscher wissen nicht, welche Beiträge der Algorithmus zuvor schon ausgefiltert hatte. Diese Daten hat nur die Plattform selbst. Wir tappen hier also weiter im Dunkeln.

Unkontrollierte Algorithmen

Das Interessante ist allerdings: Das ließe sich ändern. Wenn wir als Gesellschaft den Entschluss dazu fassen, können wir Licht ins Dunkel der Algorithmen bringen. Ich möchte Ihnen eine Expertin vorstellen, die uns hier weiterhelfen könnte: Die Mathematikerin Cathy O’Neil studierte an renommierten Einrichtungen wie Harvard, sie arbeitete in der Finanzbranche und sah, wie dort auch Algorithmen zur Wirtschaftskrise geführt hatten, weil diese Software nach den Interessen der großen Anleger programmiert worden waren. O’Neil entwickelte daraufhin die These, dass unkontrollierte Algorithmen auch „Weapons of math destruction“ sein können: Mathevernichtungswaffen. Über diesen „Angriff der Algorithmen“ hat sie mittlerweile auch ein gleichnamiges Buch geschrieben. Um als „Weapon of math destruction“ zu gelten, muss Software drei Kriterien erfüllen: Sie muss viele Menschen betreffen, nach geheimen Regeln funktionieren und destruktiv sein – also gesellschaftlichen Schaden anrichten. Ist Facebooks Software eine solche „weapon of math destruction“? „Wahrscheinlich“, meint Cathy O’Neil, „es ist schwer zu messen, weil wir keinen Zugang haben.“

Cathy O’Neil würde sehr gerne testen, ob die Software von Facebook eine Polarisierung der Gesellschaft technisch begünstigt. Sie hat dem Unternehmen von Mark Zuckerberg auch schon angeboten, solche „Audits“ zu machen – so nennen Informatiker die systematischen Untersuchungen von Software. Sie müsste dafür nicht einmal Einblick in den Source Code, den Programmiercode, nehmen. „Ich bräuchte aber Zugriff auf die Plattform“, sagt die Expertin, dann könnte sie Experimente machen. Sie würde zum Beispiel Datensätze in Facebooks Algorithmus einspeisen und schauen, welche Ergebnisse die Software ausspuckt. Über solche Versuchsanordnungen können Wissenschaftler prüfen, ob Effekte wie Filterblasen eintreten oder andere unbeabsichtigte algorithmische Nebeneffekte.

„Wenn Facebook das wollen würde, könnten sie das absolut tun. Das Problem ist nur: Worauf sie derzeit ihren Algorithmus ausrichten, ist Profit. Ich würde hingegen Algorithmen vorschlagen, die einen Austausch von Ideen ermöglichen“, sagt O’Neil. Derzeit ist es vermutlich so, dass in erster Linie Unternehmensziele beeinflussen, wie diese Tools ausgestaltet sind. Häufig geht es darum, dass Nutzer möglichst viel Zeit auf einer Seite verbringen sollen – denn dann kann ihnen die Seite reichlich Werbung einblenden. Doch wie würden Algorithmen aussehen, wenn sie nach anderen Idealen programmiert wären – wenn sie etwa dem Ziel einer diversen, vielseitigen Debatte folgen würden?

Ich bin für einen „Das ist interessant“-Knopf auf Facebook: Mit dem man dezidiert jene Beiträge kennzeichnen kann, die einem zwar nicht unbedingt inhaltlich „gefallen“, aber die trotzdem relevante Aspekte für die Gesamtdebatte enthalten. Derzeit ermöglicht uns Facebook nur per Klick auszudrücken, wenn uns etwas „gefällt“ oder wir „Wow“, „Haha“, „Traurig“, „Love“, „Wütend“ signalisieren wollen. Für eine nüchterne und sachliche Rückmeldung fehlt ein Knopf.

Diese Ideen mögen etwas verträumt wirken, aber selbstverständlich kann man bedeutende gesellschaftliche Software auch so programmieren, dass sie Pluralismus und vielfältige Debatten stärker einblenden. Wir sollten nicht nur darüber reden, wie das Internet derzeit ist, sondern zunehmend, wie es eines Tages aussehen könnte.

Der erste Schritt hin zu dieser Debatte ist allerdings Transparenz – damit wir überhaupt einmal wissen, nach welchen Kriterien für uns Information selektiert wird und ob es dabei zu gesellschaftlich ungewünschten Schattenseiten kommt. „Es sollte nicht für alle Algorithmen ein Gesetz geben, aber für jene Algorithmen, die eine gewisse Schwelle der Macht erreicht haben, sollte es gesetzliche Regelungen haben. Und der Facebook-Algorithmus ist definitiv einer von ihnen“, ist O’Neil überzeugt. Ich habe sie auch gefragt, ob sie im Auftrag der EU oder einzelner europäischer Staaten solche Audits durchführen würde. Ein entschiedenes Ja war die Antwort.

Wie groß die Unzufriedenheit in Teilen der Internetcommunity bereits ist, zeigt ein interessantes Projekt aus Italien: Dort versucht eine Reihe von Informatikern, von außen Einblicke in Facebooks Software zu nehmen. Sie sind noch in einer Frühphase, aber schon jetzt kann man auf ihrer Seite eine Erweiterung für den Webbrowser Chrome installieren – diese Software zeichnet alle öffentlichen Beiträge auf, die einem Nutzer auf Facebook eingeblendet wurden. Die Daten werden anonymisiert gespeichert. Die Informatiker wollen die Mächtigkeit des Algorithmus erforschen und für Normalbürger verständlich machen. „In Zukunft möchten wir zum Beispiel Nutzern die Option anbieten, dass sie die Welt auch mal aus den Augen eines anderen sehen können“, sagt Claudio Agosti, Leiter des Projekts. Eine Funktion könnte es künftig Nutzern ermöglichen, die öffentlichen Beiträge aus den Feeds anderer Nutzer auf Facebook zu lesen – so wird sichtbar, wie unterschiedlich die Realität für verschiedene Menschen wirkt. Das Ziel ist, Bürgern verständlich zu machen, wie sehr Algorithmen beeinflussen, was Menschen über die Welt erfahren. Wer bei diesem Datensammelprojekt mitmachen will, kann das Tool schon jetzt unter https://facebook.tracking.exposed installieren.

Algorithmische Diskriminierung

Eine weitere Sorge in einer von Software kurierten Medienrealität ist „algorithmische Diskriminierung“: Computerprogramme behandeln mitunter Bevölkerungsgruppen ungleich. Ein solcher Vorfall wurde bei Google aufgezeigt: Wissenschaftler der Carnegie Mellon University führten 2014 ein Experiment durch: Sie programmierten 500 Computer so, dass sie für Google aussahen wie weibliche oder wie männliche User. Diese Nutzer schienen in allen Faktoren gleich – bis auf das Geschlecht. Speziell analysiert wurden Inserate für das Berufsleben und ob Google Männern andere Werbung als Frauen anzeigte. Inserate für Berufscoaching für Spitzenverdiener wurden vor allem Männern eingeblendet: 402-mal bekamen Männer, aber nur 60-mal erhielten Frauen dieses Inserat.

Googles-Werbealgorithmus zeigte vielen Frauen die Hinweise auf Coaching für Spitzenjobs nicht einmal an. Ein klassischer Fall von algorithmischer Ungleichbehandlung. „Das ist eine Form von Diskriminierung. Denn diese Werbeeinblendungen eröffnen einen Pfad hin zu einem besseren Job – und Männer bekommen das öfter angeboten“, sagte Anupam Datta, einer der Forscher, zu mir.9 Die Wissenschaftler wissen nicht, was zu dieser Verzerrung führte: Sie haben ihr Experiment ohne die Freigabe von Google durchgeführt. Womöglich liegt die unterschiedliche Behandlung daran, dass man auf Google gezielt Männer oder Frauen mit Werbung adressieren kann – das betroffene Coachingunternehmen behauptete zumindest, sie hätten das nicht von Google verlangt. Eine zweite mögliche Erklärung ist noch wesentlich spannender: Womöglich hat Googles Software registriert, dass Frauen tatsächlich seltener auf Werbung für Spitzenjob-Fortbildung klicken – und nach einiger Zeit bekamen Frauen kaum noch solche Inserate eingeblendet.

Eine Gefahr von selbstlernenden Algorithmen ist, dass sie gesellschaftliche Ungleichheit in ihren Code aufnehmen. Denn Software „lernt“ anhand riesiger Datensätze – und in statistischen Daten spiegeln sich tatsächlich Ungleichheiten wieder, Frauen verdienen im Schnitt schlechter, sind seltener in Top-Positionen vertreten. Nur wenn Algorithmen daraus ableiten, dass manche Inserate Frauen gar nicht erst angezeigt werden müssen, weil die Klickrate so niedrig ist, zementiert sie quasi die Ungleichheit des Status quo ein. Ein Coaching-Angebot oder eine Job-Ausschreibung, die Frauen gar nicht mehr zu sehen, können sie naturgemäß auch nicht nutzen.

Algorithmische Auskunftsrechte

Ich bin der Überzeugung, wir brauchen gerade für die wichtigsten Algorithmen in unserer Gesellschaft eine unabhängige Aufsicht: Es muss die Möglichkeit geben, dass Wissenschaftler bedeutende Algorithmen auf gewisse Gütekriterien und ungewünschte Nebeneffekte hin überprüfen. Diese fachkundigen Prüfer müssten keinen Einblick in das intellektuelle Eigentum – den Source Code – nehmen, aber sie könnten analysieren, ob es algorithmische Diskriminierung oder andere mögliche Schattenseiten auftreten.

Warum sollten Algorithmen im Gegensatz zu vielen anderen Produkten keiner Qualitätskontrolle unterliegen? Bevor Autos auf den Markt kommen, werden ihre Abgaswerte getestet; die Lebensmittelkontrolle wiederum überprüft, welche Inhaltsstoffe in Waren enthalten und ob diese gesundheitsschädigend sind. Solche Qualitätssicherungen und Kontrollen muss es auch für Algorithmen geben, die faktisch immer mehr Entscheidungen für unser Leben treffen werden.

Es gibt leider den Mythos, dass in Europa die Rechtslage schon recht gut sei: 2016 berichteten internationale Medien wie die Computerzeitschrift „Wired“, dass die EU nun ein „Recht auf Erläuterung“ von Algorithmen einführen würde.10 Damals wurde die neue Datenschutz-Grundverordnung beschlossen, die im Mai 2018 in Kraft treten wird. Nur ist es falsch, dass Betroffene dann ein umfassendes „Recht auf Erläuterung“ erhalten werden, bei dem große Unternehmen Betroffenen wichtige Entscheidungen ihrer Algorithmen verständlich machen müssen.

Wie auch eine britische Studie aufzeigte, ist das sogenannte „Recht auf Erläuterung“ laut der neuen Grundverordnung tendenziell eher keine gesetzliche Verpflichtung.11 Das „Recht auf Erläuterung“ wird zwar einmal im Text erwähnt, aber mehr als Interpretationshilfe für Gerichte denn als fix geltendes neues Recht.

Dabei bräuchte es solche zunehmenden Bürgerrechte: Zunehmend werden Entscheidungen im Finanz- und Berufsleben von Algorithmen gefällt. Ob man einen Kredit bekommt, wie hoch die Versicherungsrate ist, ob man zu einem Bewerbungsgespräch eingeladen wird, das berechnet oft Software basierend auf persönlichen Daten. Ein „Recht auf Erklärung“ könnte einzelnen Betroffenen helfen, für ihren konkreten Fall eine dezidierte Auskunft zu bekommen, warum der Algorithmus zu einem gewissen „Urteil“ kam. Doch selbst in der vagen Form, wie dieses Recht in der Grundverordnung enthalten ist, beinhaltet es immense Lücken. Beispielsweise betrifft die derzeitige Regelung nur signifikante automatisierte Entscheidungen, bei denen kein Mensch mehr hinzugezogen wurde: Erhält ein Bürger keinen Kredit, weil der Bankbetreuer die schlechte algorithmische Bewertung angeschaut hat und daraufhin den Antrag ablehnte, dann hat dieser Bürger kein Recht darauf, dass ihm die algorithmische Entscheidung erklärt wird. Denn in diesem Fall war ja ein Mensch zwischengeschaltet.

Den Mitgliedsstaaten stünde es frei, im nationalen Recht strengere Regeln einzuführen oder Druck auf die EU zu machen, noch nachzubessern. Das wahrscheinlichste Szenario ist allerdings, dass gerade die vage Formulierung der Grundverordnung zu einem langen Rechtsstreit führt – und in mehreren Jahren dann der Europäische Gerichtshof (EuGH) das letztgültige Urteil fällt, inwieweit es ein Recht auf Erklärung in Europa gibt. Es wäre nicht das erste Mal, dass das Höchstgericht jene Streitfragen beantwortet, die unpräzise Gesetzestexte offengelassen haben.

Algorithmische Auskunftsrechte für Bürger könnten und müssen noch ausgebaut werden. Spätestens dann, wenn Algorithmen für unser Leben bedeutende Entscheidungen treffen, sollten wir möglichst genau nachvollziehen können, wie im Detail diese Entscheidung von der Software getroffen wurde.

 

Anmerkungen

1 Bond, Robert M. u.a.: A 61-million-person experiment in social influence and political mobilization, online: http://www.nature.com/nature/journal/v489/n7415/full/nature11421.html

2 Jason, Jones J. u.a.: Social influence and political mobilization: Further evidence from a randomized experiment in the 2012 U.S. Presidential election, online: http://fowler.ucsd.edu/social_influence_and_political_mobilization_further_evidence.pdf

3 Otterson, Joe: Cable News Ratings: Fox News Breaks Records, MSNBC Posts Significant Growth, online: http://variety.com/2017/tv/news/cable-news-ratings-fox-news-msnbc-1202017940/

4 Constine, Josh: Facebook beats in Q1 with $8.03B revenue, faster growth to 1.94B users, online: https://techcrunch.com/2017/05/03/facebook-q1-2017-earnings/

5 Lada, Akos u.a.: News Feed FYI: New Signals to Show You More Authentic and Timely Stories, online: https://newsroom.fb.com/news/2017/01/news-feed-fyi-new-signals-to-show-you-more-authentic-and-timely-stories/

6 Pariser, Eli: When the Internet Thinks It Knows You, online: http://www.nytimes.com/2011/05/23/opinion/23pariser.html

7 Bakshy, Eytan et al: Exposure to ideologically diverse news and opinion on Facebook, online: http://science.sciencemag.org/content/348/6239/1130

8 Sandvig, Christian: Facebook „It’s Not Our Fault“ Study, online:
http://socialmediacollective.org/2015/05/07/the-facebook-its-
not-our-fault-study/

9 Datta, Amit u.a. Automated Experiments on Ad Privacy Settings, online: https://www.andrew.cmu.edu/user/danupam/dtd-pets15.pdf

10 Metz, Cade: Artificial Intelligence Is Setting Up the Internet for a Huge Clash With Europe, online: https://www.wired.com/2016/07/artificial-intelligence-setting-internet-huge-clash-europe/

11 Wachter, Sandra u.a.: Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation, online: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2903469

 

Von Ingrid Brodnig erschien Ende Juni 2017 im Brandstätter Verlag das Buch „Lügen im Netz. Wie Fake News, Populisten und  unkontrollierte Technik uns manipulieren“. Hier als Auszug das Kapitel „Welches Netz möglich wäre“.

 

Brodnig Cover

 

 


Like what you see? Hier CARTA bei Facebook liken.

Was Sie tun können, um CARTA zu unterstützen? Folgen, liken und teilen Sie uns auf Facebook und Twitter. Unterstützen sie uns regelmäßig über die Plattform steady oder spenden Sie an den CARTA e.V. Wenn Sie über neue Texte und Debatten auf CARTA informiert werden wollen, abonnieren Sie bitte unseren Newsletter.