Das Netz denkt nicht

Was das Medium kann, brauchen wir nicht mehr zu machen? Ein Kommentar zur Schirrmacher-Debatte um die Herrschaft der Algorithmen.

Der folgende Beitrag erscheint im Kontext der Veranstaltung „Leben im Schwarm – Wie das Internet uns verändert„. Siehe auch Beitrag von Gundolf S. Freyermuth: „Der Trojanische Transfer„.

Frank Schirrmacher fürchtet, das Netz nimmt uns erst das Denken und dann die Macht ab: „Wir werden das selbstständige Denken verlernen“, prophezeit er in seinem Bestseller Payback, „[u]nd wir werden uns in fast allen Bereichen der autoritären Herrschaft der Maschinen unterwerfen.“ Der Grund, so Schirrmacher, ist die schiere Menge der im Netz verfügbaren Daten, die unsere Aufmerksamkeitsressourcen heillos überfordern – weswegen wir uns auf die Softwareagenten und digitalen Roboter der Ordnungsprogramme des Internets verlassen müssen. Damit aber erleben wir eine Externalisierung des Denkens, dass sich fortan außerhalb unseres Gehirns als algorithmengesteuerter Prozess in der Cloud abspielt.

Die Angst vor neuen Medien, die Payback schürt, ist so alt wie Medien selbst. Viele Szenarien der Ersetzung und Unterwerfung durch Medien folgen seit Platons Schriftkritik in Variationen der gleichen, schlichten Logik: Was das Medium kann, brauchen wir nicht mehr zu machen; wenn wir’s aber lassen, verlieren wir alsbald die Fähigkeit, es überhaupt noch zu tun – sind dem Medium dann aber am Ende hilflos ausgeliefert.

Das Spezifische an Schirrmachers Paypack-Version dieses Arguments ist die Tatsache, dass es nicht um einzelne menschliche Fähigkeiten geht, die an entsprechende Medien delegiert werden (wie das Erinnern bei Platon), sondern um das Denken an sich – das heißt diejenige Eigenschaft, die vor allen anderen unsere spezifische Differenz zu anderen (biologischen oder technischen) Spezies darstellt. Deswegen die Dramatik seiner Geschichte: Es geht nicht darum, ob wir morgen noch schreiben werden oder uns Geschichten erzählen können – es geht darum, ob wir als denkende Wesen morgen noch existieren.

Mit dem Denken und den Medien indes ist es eine schwierige Angelegenheit. Es ist eine Sache, darauf hinzuweisen, dass Medien unser Denken beeinflussen – und es ist eine ganz andere Sache, zu behaupten, dass Medien uns das Denken abnehmen. Jener Hinweis ist, nach einigen Umwegen und gegen manche Widerstände, mittlerweile nicht nur unter Medienwissenschaftlern Common Sense. Die Rede von denkenden Maschinen hingegen bleibt, wenngleich nicht ungewöhnlich, so doch weithin umstritten. Und das mit guten Gründen.

Einer davon geht so: Wir investieren zwar viel Geld in die Erforschung der Vorgänge in unserem Hirn – wie genau das funktioniert, was wir „Denken“ nennen, können uns gleichwohl bislang weder Neurowissenschaftler noch Philosophen erklären. Demgegenüber wissen wir sehr genau, was geschieht, wenn Computer arbeiten: Sie exekutieren Befehle. Digitale Maschinen prozessieren Zeichenfolgen nach strikten Regeln, niedergelegt in den Codes der Programme, die wir ihnen schreiben.

So ausgereift die Software des Netzes und so komplex ihre Algorithmen auch sein mögen – sie verketten lediglich binäre Differenzen, denen ohne uns der Status signifikanter Informationen, und das heißt: irgendeine Form von Sinn erst gar nicht zukommt. So viele Daten die Cloud auch enthalten mag – Bedeutung erhalten sie erst und nur, wenn User mit ihnen interagieren. Erst durch solche Interaktionen werden Daten zu Informationen – was, nebenbei, die philosophische Erbsünde der Informatik benennt, der wir schließlich die gänzlich irreführende Beschreibung von Computern als informationsverarbeitenden Maschinen verdanken.

Das Netz denkt nicht, das müssen wir weiterhin selber tun. Auch wenn’s Manchem schwerfällt. Umgekehrt gilt: Wer denken nennt, was Computer tun – und, wie Schirrmacher, auch noch ausdrücklich darauf hinweist, dass er das nicht metaphorisch meint –, der sagt damit weniger über Computer als über sein Menschenbild. Er muss nämlich den Begriff des Denkens reduktionistisch verkürzen – und nach Manier der Biotechnokraten die Vorgänge im Gehirn von vornherein als maschinell beschreiben. (Bei Schirrmacher steht konsequenterweise auch gleich zu Beginn des Buchs Marvin Minsky Pate mit seiner These: „Das Hirn ist nichts anderes als eine Fleisch-Maschine“.)

Wenn man die kategoriale Unterscheidung zwischen menschlichem Denken und Handeln einerseits und den maschinellen Abläufen andererseits aufrecht erhält, verliert das Szenario Schirrmachers einiges an Schrecken. Der sachliche Kern der Argumentation allerdings bleibt davon unberührt. Denn es ist ja richtig: Wir finden im Netz nur, was sich in den digitalen Code der Computer übersetzen lässt. Ein Befund, nebenbei, den Jean-François Lyotard bereits 1979 in seinem Bericht Das postmoderne Wissen formuliert hat.

Zugleich gilt: Die Daten im Netz werden durch Programme organisiert, nicht durch Menschen. Und die Algorithmen von Suchmaschinen à la Google sind wirkungsmächtige Steuerungsmechanismen, die unserem Denken nicht selten die Richtung weisen – etwa bei journalistischen oder wissenschaftlichen Recherchen. Das machen die klassischen Klassifikationsysteme traditioneller Bibliotheken allerdings auch – wir fänden kein Buch ohne sie, und finden zugleich nur die Bücher, welche die gewählte Ordnung etwa eines Schlagwortkatalogs uns finden lässt; und was nicht zwischen zwei Buchdeckel passt, finden wir dort gar nicht. Laien bleiben die Regeln der Katalogisierung dabei meist ebenso unverständlich, wie die Algorithmen der Suchmaschinen.

Dennoch bleibt es richtig, wenn Schirrmacher schreibt: „Google ist nicht nur eine Such- sondern auch eine Machtmaschine.“ Es ist im Grunde sogar viel schlimmer: Nicht erst die komplexen Algorithmen der avancierteren Programme, sondern bereits die recht simplen Codes elementarer Protokolle des Internets sind mächtige und wirkungsvolle Instrumente der Kanalisierung und Regulierung der Datenströme – und damit auch unserer Interaktionen mit ihnen. Alexander Galloway hat in seinem klugen Buch Protocol. How Control exists after Decentralization gezeigt, wie Programme wie TCP/IP oder HTML, die den Datenverkehr im Netz, wie wir ihn kennen, überhaupt erst ermöglichen, denselben zugleich begrenzen und lenken – weswegen, so Galloways Kernthese, das Internet ein zwar dezentrales, aber gleichzeitig hochgradig kontrolliertes Medium ist.

Natürlich hat das Konsequenzen. Medien machen etwas mit uns, während wir etwas mit ihnen machen Und es ist wichtig, sich die Funktionsweise der Medien, die man nutzt, genau anzusehen, will man verstehen, was sie machen. Der Ruf nach Transparenz der Mechanismen und Offenlegung der Codes ist eine berechtigte, aufklärerische Forderung. Open Source Programme sind demokratischer als proprietäre Software. Doch bedrohen Googles Algorithmen, so undurchschaubar sie sein mögen, tatsächlich die Autonomie der Nutzer? Ist, wie Schirrmacher und andere unterstellen, gar unsere Individualität in Gefahr? – Wohl kaum. Zumindest nicht mehr (wenn auch anders), als zuvor.

Spätestens seit Freud wissen wir, dass wir nicht Herr im eigenen Hause sind. Und dass der Grund dafür nicht nur Trieb und Libido heißt und im Un- oder Unterbewusstsein zu suchen ist, wissen wir mittlerweile auch. Denken Sie nur an die neueren Befunde der Neurowissenschaften zur Frage der Willensfreiheit, die Schirrmacher so gerne zitiert! Oder gehen Sie noch einen Schritt zurück und erinnern sich an die Einsicht in die Eingebundenheit unserer Denkens in die vorgängigen Strukturen der Sprache, die im französischen Poststrukturalismus der 60er Jahre zur These führte: Nicht der Mensch, die Sprache spricht!

Das Konzept des voraussetzungs- und bedingungslos individuell agierenden und denkenden Einzelnen ist im vergangenen Jahrhundert von verschiedenen Seiten und mit unterschiedlichen Gründen immer wieder neu als Mythos entlarvt worden. Wenn nun durch die Steuerungs- und Kontrollmechanismen der Software des Netzes unser Denken und Handeln mit neuen Bedingungen konfrontiert wird, an die es sich adaptieren muss, so kann man darin durchaus eine weitere jener narzisstischen Kränkungen sehen, welche den neuzeitlichen Menschen immer wieder in seine Schranken weisen. Eine Gefahr für unsere individuelle Freiheit und Autonomie aber kann nur der darin sehen, der Freiheit mit Bedingungslosigkeit und Autonomie mit Willkür verwechselt.

Vielleicht aber sieht ja, wer die Gefahr beschwört, in Wahrheit weiter. Die unterstellte Überlastung der intellektuellen Kapazitäten von Netznutzern wie auch das beschworene Szenario ihrer drohenden Unterwerfung unter die Macht der digitalen Programme mag nur ein Aspekt jener allgemeineren Überforderungsrhetorik sein, die behauptet, dass wir mit der technischen Entwicklung einfach nicht Schritt halten können. Wir kennen diese Rhetorik aus der Geschichte der pessimistischen Kulturtheorien von Günter Anders oder Neil Postman.

Bei Schirrmacher mischt sich die fast hysterische Prophetie des anstehenden Untergangs interessanterweise mit seinem jahrelangen, dankenswerten Bemühen, die aktuellen wissenschaftlichen und technischen Diskurse aus den USA bei uns heimisch zu machen. Die FAZ und ihr Herausgeber sind hier fraglos kompetent. Und was wäre, wenn die Überforderungsrhetorik nur inszeniert wäre – und hinter ihr der Versuch einer Selbstermächtigung als Deutungs- und Orientierungsinstanz steckte? Nach dem Motto: Wenn alle überfordert sind, sind wir möglicherweise gerade die Richtigen, den anderen zu sagen, wie’s jenseits der Gefahr weitergeht. Das wäre – reine Spekulation …