Michael Seemann

Vom Kontrollverlust zur Filtersouveränität

 | 54 Kommentar(e)


Die Allgegenwart von Aufzeichnungsgeräten verbindet die digitale Welt immer enger mit der analogen. Ist man Teil der Welt, wird man Teil des Internets sein. Suchmaschinen-Abfragen, Leaking-Vorgänge und die steigende Verknüpfbarkeit von Daten haben zu einem Grundgefühl der Informationsüberflutung geführt. In der Bibliothek von Babel muss Öffentlichkeit deshalb radikal neu gedacht werden. Ein Plädoyer für Post-Privacy.

06.04.2011 | 

Die USA stehen diplomatisch ohne Hosen da, ein «Shitstorm» bricht über Nestlé herein, ein Blogger prangert ein Zitat des Bundespräsidenten an, der schließlich zurücktritt, private Videos von Jugendlichen verbreiten sich im Netz, das Internet verleibt sich das deutsche Straßenpanorama ein, und in Tunesien und Ägypten verabreden die Menschen sich zum spontanen Regimesturz.

Die Welt ist in Aufruhr dieser Tage, und irgendwie hat es mit dem Internet zu tun. Vor einem Jahr habe ich mich entschlossen, Ereignisse wie diese unter dem Begriff «Kontrollverlust» zu untersuchen. Das scheint etwas unsystematisch, und tatsächlich ist es nicht einfach, eine passende Definition für all diese unterschiedlichen Phänomene zu liefern.

Ich versuche es dennoch: Ein Kontrollverlust entsteht, wenn die Komplexität der Interaktion von Informationen
die Vorstellungsfähigkeiten eines Subjektes übersteigt.

Das ist an sich nichts völlig Neues, wir kennen das. Meine These ist aber nun, dass das Internet und die digitale Technik diese Kontrollverluste sowohl in ihrer Häufigkeit als auch in der Intensität ihrer Folgen um ein Vielfaches steigert. Dafür gibt es verschiedene Gründe.

Es gibt kein analoges Leben im digitalen

«Leaken» ist sozusagen die Standardeinstellung des Netzes.

Den ersten internationalen Durchbruch hatte Wikileaks mit dem Video «Collateral Murder». Man wird Zeuge, wie die Besatzung eines US-amerikanischen Apache-Hubschraubers im Irak eine Gruppe von Menschen zusammenschießt. Zwei von ihnen sind Journalisten für Reuters. Der Familenkleinbus, der hält, um die Verletzten zu bergen, wird gleich darauf auch zusammengeschossen.

Was mich hier interessiert, ist diese merkwürdige Konfiguration von «Zeugenschaft». Die Kamera im Helikopter ist zweifellos ein Kontrollinstrument. Das Oberkommando fliegt mit, bekommt alle Schritte des Apache-Teams zu sehen, und das Material kann hinterher ausgewertet werden.

Doch der Kontrollapparat wird nun zum Kontrollverlustinstrument. Kontrollverlustinstrumente können potenziell alle Apparate zum Aufschreiben von Daten sein. Sensoren, Kameras, GPS-Apparaturen etc. Denn die Menge dieser Apparate steigt unerbittlich. CCTV-Kameras überwachen den öffentlichen Raum, Handys mit Kamera und GPS sind allgegenwärtig, Kreditkartenlesegeräte erfassen beinahe alle Transaktionen und durch die Straßen fährt das Google-Street-View-Auto. Alle diese Geräte schicken immer mehr Daten auf immer größere Festplatten, in immer mehr Geräte und immer mehr ins Internet.

Grund eins für den Kontrollverlust: Die Allgegenwart von Aufzeichnungsgeräten verknüpft die digitale Welt immer enger mit der analogen. Ist man Teil der Welt, wird man Teil des Internets sein.

Public by Default

76.911 Dokumente umfassten die Afghanistandokumente, 391.832 die aus dem Irak, und 251.287 diplomatische Depeschen wurden geleakt. Aber die mutmaßliche Quelle, Bradley Manning, musste nicht 234 Aktenschränke mit einer Kolonne Lastwagen abholen lassen, sondern spazierte mit einer gebrannten Lady-Gaga-DVD aus dem Büro. Da war noch etwas Platz drauf.

Im Digitalen gibt es keinen Unterschied zwischen Schicken und Kopieren. Egal, ob wir eine E-Mail schicken oder eine Website aufrufen: Jede Operation im Digitalen ist eine Kopieroperation. Über 90% aller Befehlssätze eines Computerprozessors sind Kopierbefehle; das Internet ist somit eine riesige Kopiermaschine.

Während in einer Welt der Wände und Entfernungen noch ein großer Aufwand betrieben werden musste, um eine Information an einen Empfängerkreis weiterzuverbreiten, der über eine mittlere Ratsversammlung hinausgeht, muss man heute einen ähnlichen Aufwand betreiben, um dieselbe Information nicht sofort weltweit zugänglich zu machen.

Und wenn man eine Information wieder aus dem Netz herausbekommen will, hat man ein Problem. Nach den Versuchen der US-Regierung, Wikileaks zu schaden, indem man Dienstleister dazu brachte, Verträge mit ihnen zu kündigen, reagierten die Unterstützer von Wikileaks mit bis heute 1.426 Spiegelungen, also kompletten Kopien aller Daten des Wikileaks-Servers auf anderen erreichbaren Rechnern.

Dieser Vorgang bekam im Jahre 2003 den Namen «Streisand-Effekt». Die Schauspielerin und Sängerin Barbra Streisand versuchte damals die Website Pictopia.com gerichtlich dazu zu zwingen, eine Luftaufnahme ihres Hauses zu entfernen. Der Prozess entfachte das Interesse an dem Bild erst richtig und verbreitete es nicht nur tausendfach im Netz, sondern auch die Information, wer dort wohnt.

Grund zwei für den Kontrollverlust: Das Internet hat die Transaktionskosten für Information enorm gesenkt und tut es weiter. «Leaken» ist sozusagen die Standardeinstellung des Netzes.

Echtzeitarchäologie

Nachdem all die vielen Dokumente aus Afghanistan, dem Irak und all die ganzen Depeschen geleakt waren, stand man nun vor einem riesigen Berg an Daten. Nicht mal der Zusammenschluss der Redaktionen von SPIEGEL, Guardian und New York Times hätte ausgereicht, genug wertvolle Informationen aus diesem Heuhaufen zu destillieren, wenn nicht ein weiterer Umstand geholfen hätte: Die generelle Verknüpfbarkeit von Daten.

Der Guardian glänzte als Vorbild, als er vor allem die Kriegsdokumente zu angereicherten Landkarten und interaktiven Diagrammen verarbeitete. Indem man Metadaten wie Orts- und Zeitangaben mit weiteren Daten wie einer Landkarte und einem Zeitstrahl verknüpfte, ließen sich selbst unzugänglichste Datenberge erschließen. Das große Bild des Krieges, seine Dramatik, sein Verlauf und sein (Miss-)Erfolg wurden durch die Interaktion des Nutzers mit den Daten erfahrbar.

Andere sind noch viel weiter. Ob die Analyse von Bestandsdaten oder die Zusammenführung heterogener Daten – den Verknüpfbarkeiten sind keine Grenzen gesetzt. Der neueste Trend ist es, biometrische Gesichtserkennung in Software für den Massenmarkt einzubauen. Bei Apples iPhoto und Googles Picasa sind diese bereits Teil des Produktes und bei Facebook schon im Test. Es ist natürlich furchtbar praktisch, wenn das Fotoprogramm meine Freunde automatisch anhand ihres Gesichtes erkennt und richtig einsortiert.

Google forscht intensiv an immer besseren Algorithmen zur Gesichtserkennung, und so wird es nicht lange dauern, bis alle diese Bilder von uns, von denen wir bislang nichts wussten, durch eine entsprechende Google-Suche zu Tage gefördert werden oder uns das Google-Android-Handy automatisch auf der Straße erkennt.

Ein anderes Beispiel ist Gaydar. Im Jahr 2007 stellten Studenten vom MIT eine Software vor, mit der man recht zielsicher Homosexuelle bei Facebook ausfindig machen kann. Sie analysiert ausgehend von einer bekennenden Referenzmenge an Homosexuellen das Netz der frei zugänglichen Freundschaftsverknüpfungen und kann mit einer Trefferquote von 86% vorhersagen, ob ein einzelner Facebook-Nutzer homosexuell ist. Outing ist eine Frage des automatischen Lesens von Datenverknüpfungen geworden.

Egal ob Bilderfassungs- und Auswertungsverfahren oder Freundschaftsverknüpfung: All diese Beispiele haben eines gemeinsam. Sie basieren darauf, dass mit der digitalen Technik heute in Echtzeit Analysen und Referenzen zwischen Daten generiert werden können, die unsere bisherigen Vorstellungen übertreffen.

Der einzelne Datensatz liegt eben nicht mehr tot an seinem Speicherplatz, sondern wird durch immer neue Verknüpfungsmethoden «angereichert» und damit stets lebendiger.

Im professionellen Umfeld nennt man das dann «Data-Mining», «Targeting» oder «Monitoring» – im Privaten hat man andere Namen dafür: «Adressbuchsynchronisation», «Bilderverwaltung» oder schlicht «Google-Suche». Die ordnenden und verknüpfenden Algorithmen, die hier zum Einsatz kommen, erreichen heute schon eine ungeahnte Tiefe und Komplexität. Es ist, als würde man mit ausgefeilten archäologischen Methoden die Jetztzeit analysieren.

Grund drei für den Kontrollverlust wäre also: Daten werden übermorgen für Verknüpfungen offener sein als morgen.

Die Bibliothek von Babel

Halten wir hier einen kurzen Augenblick inne und betrachten die drei Gründe für den Kontrollverlust:

1. Die steigende Masse an Daten durch die Allgegenwart von Aufzeichnungssystemen.

2. Die steigende Agilität der Daten durch deren sinkende Transaktionskosten.

3. Die steigende Verknüpfbarbeit von Daten.

Wenn man in Betracht zieht, dass Punkt eins und zwei sich entlang von «Moores Law» exponentiell weiterentwickeln (Verdopplung etwa alle 18 Monate), kommt man unwillkürlich an den Punkt, der immer wieder schwarz an die Wand gemalt wird: die Informationsüberflutung.

Eric Schmidt, Top-Manager bei Google, behauptete unlängst, dass derzeit in 48 Stunden genauso viele Daten produziert werden, wie in der Zeit vom Beginn der Menschheit bis zum Jahre 2003. Ein Weiterdenken dieses Trends führt uns unweigerlich zu dem, was Jorge Luis Borges in seiner Erzählung «Die Bibliothek von Babel» beschrieben hat.

Ein Volk lebt dort in einer Welt, die eigentlich eine Bibliothek ist, in der alle logisch-mathematisch möglichen Bücher vorhanden sind. Alle denkbaren und undenkbaren, alle sinnvollen und nicht sinnvollen, alle geschriebenen und noch zu schreibenden Texte. Einfach alles. 1,956 * 10 ^ 1834097 Bücher à 410 Seiten.

Das Unverständnis vieler Leute gegenüber Diensten wie beispielsweise Twitter rührt aus dieser generellen Unvorstellbarkeit: «Da schreiben also Leute, wenn sie aufs Klo gehen!?» Aktiven Twitterern kommt diese Frage unsinnig vor.

Aber warum akzeptieren ausgerechnet jene, die an vorderster Front des Informationsorkans stehen, diese Informationsüberflutung schulterzuckend? Hier greift der Grund Nummer drei für den Kontrollverlust. Die Verknüpfbarkeit der Daten erlaubt uns immer besser mit den Informationsmengen des Internets umzugehen. Echtzeitalgorithmen zur Durchsuchung von großen Datenmengen schaffen ein neues Verhältnis von Sender und Empfänger und damit eine neue Öffentlichkeit in der Bibliothek von Babel.

Die Query-Öffentlichkeit

Wir müssen uns fragen: Was ist Öffentlichkeit in der Bibliothek von Babel? Wir kennen Öffentlichkeit vom öffentlichen Raum, in den man sich begeben kann, manchmal begeben muss. Wir kennen auch die mediale Öffentlichkeit der Massenmedien, in denen wir mehr oder weniger öffentlich sein können, je nach Auflage oder Quote. In der Bibliothek von Babel muss Öffentlichkeit aber neu gedacht werden. Eine dritte Form von Öffentlichkeit hat sich längst parallel gebildet. Nur war sie mit herkömmlichen Denkungsarten des Medienverständnisses nicht beobachtbar.

  • Die Öffentlichkeit der Google-Suche: Egal, ob ein Blog 3 oder 300.000 Leser am Tag hat. Wenn es über mich schreibt, wird derjenige, der nach meinem Namen sucht, den Eintrag finden. Denn die Kombination seiner Suchworte bestimmt diese Öffentlichkeit.
  • Die Öffentlichkeit der eigenen Twitter-Timeline. Es lesen nicht viele Menschen, was ich twittere, das ist auch nicht nötig. Es abonnieren sich meinen Twitter-Stream nämlich nur diejenigen, die sich wirklich dafür interessieren, was ich schreibe. Die Öffentlichkeit meiner Twitter-Nachrichten strukturiert sich aus der Konfiguration ihrer Abonnemententscheidungen.
  • Die Öffentlichkeit des Data-Minings. Auch das gehört dazu, dass die Daten, die ich preisgebe, nicht nur in der Weise genutzt werden, wie ich es mir im Vorhinein vorstelle. Sondern dass sie angereichert werden mit anderen Daten und dass darauf Anfragen getätigt werden, von denen ich heute keine Vorstellung habe. Die Öffentlichkeit meiner Daten bestimmt sich aus der Geschicklichkeit der verknüpfenden Algorithmen solcher Dienste.

Kurz: Man muss im Internet die Öffentlichkeit von der anderen Seite, der Seite des Empfängers, aus neu denken. «Query» bezeichnet in der Datenbanktechnik eine Anfrage beliebiger Komplexität an einen Datensatz. Die neue Struktur von Öffentlichkeit nenne ich deswegen «Query-Öffentlichkeit».

Die Query-Öffentlichkeit ist die positive Kehrseite des Kontrollverlusts. Sie ist das Stück Autonomie, dass der Empfänger von Informationen hinzugewinnt, welches der Sender der Information durch den Kontrollverlust verloren hat. Es ist die Invertierung des klassischen Öffentlichkeitsbegriffs und erfordert ein nicht gerade triviales Umdenken. Ein Umdenken, das aber durchaus beobachtbar bereits stattfindet und – so meine These – sich mit dem Fortschreiten des Kontrollverlusts noch ausweiten wird.

Mit diesem Umdenken von Öffentlichkeit kehren sich auch eine ganze Reihe von Wertpräferenzen um und bereiten damit den Weg für eine andere Informationsethik.

Wenn sich – erstens – Information aufgrund ihrer billigen Speicherbarkeit nicht mehr für ihre Existenz rechtfertigen muss und wir – zweitens – annehmen, dass die Querys, die man auf einen Datensatz anwenden kann, in ihren Möglichkeiten unendlich sind, gibt es plötzlich keine legitime Instanz mehr, die sich anmaßen könnte zu entscheiden, was wichtige, unwichtige, gute oder schlechte Information ist. Das Zusammenstellen von Querys und Präferieren von Filtern wäre das radikale Recht ausschließlich des Empfängers.

Gleichzeitig befreien diese unvorhersehbaren, weil unendlichen Querys auch den Sender der Information. Sie befreien ihn davon, Erwartungen entsprechen zu müssen. Denn der Andere kann, weil er in unendlichen Quellen mit perfekt konfigurierbaren Werkzeugen hantiert, keinen Anspruch mehr an den Autor stellen – weder einen moralisch-normativen noch einen thematisch-informationellen. Die Freiheit des Anderen, zu lesen oder nicht zu lesen, was er will, ist die Freiheit des Senders, zu sein, wie er will.

«Filtersouveränität», so habe ich diese neue Informationsethik genannt, ist eine radikale Umkehr in unserem Verhältnis zu Daten. Sie führt bereits hier und da zu Reibereien und kleineren Kulturkämpfen, und ich bin mir sicher, dass dieses Prinzip seine Stärke erst noch voll entfalten wird. In der Wikipedia ist beispielsweise ein Kulturkampf entbrannt zwischen Exklusionisten und Inklusionisten, also jenen, die meinen, Inhalte wegen Irrelevanz löschen zu müssen, und anderen, die dagegenhalten. Und während ich noch vor fünf Jahren Mails oder SMS gelöscht habe, sortiere ich sie heute nur noch weg.

Die Empörung im Internet gegenüber den Maßnahmen der Öffentlich-Rechtlichen, die aufgrund des Rundfunkänderungsstaatsvertrags ihre Archive im Netz unzugänglich machen müssen, speist sich aus dieser neuen Betrachtungsweise. Auch bei dem Gedanken an das «digitale Radiergummi» fasst sich der filtersouveräne Netzbürger an den Kopf. Die Sympathie für Projekte wie Wikileaks, aber auch die Forderungen der Open-Data-Bewegung, dass der Staat alle seine Daten zur potenziellen Verarbeitung maschinenlesbar zur Verfügung stellen soll, all das kann direkt als Ausdruck eines neuen filtersouveränen Bewusstseins gelesen werden. Von den Forderungen eines liberaleren Urheberrechts ganz zu schweigen.

Und das wäre also der letzte Grund, der vierte und endgültige, für den Kontrollverlust: Der Wertewandel durch die Filtersouveränität wird dafür sorgen, dass der Mensch den Kontrollverlust nicht nur in Kauf nimmt, sondern sogar gegen alle Widrigkeiten verteidigen wird.

Dieser Text von Michael Seemann stammt aus dem Band “#public_life Digitale Intimität, die Privatsphäre und das Netz”, den die Heinrich-Böll-Stiftung in der kommenden Woche veröffentlichen wird. Der Text steht unter CC-Lizenz. Die Veröffentlichung auf Carta erfolgt mit freundlicher Genehmigung von Autor und Stiftung.

CARTA Kaffeekasse

Das könnte Sie auch interessieren:

54 Kommentare

  1. Schwester G |  06.04.2011 | 13:13 | permalink  

    Die Welt geht unter – Erdbeben, Fukushima, Euro-, Klima- und Hungerkrise – und wir sollen uns mit den bedeutenden Thesen der Post-Privacy-Minderheit auseinandersetzen`? Ne, Danke. Es gibt derzeit wirklich wichtigere Fragen.

  2. #dfdu /sms ;-) |  06.04.2011 | 14:19 | permalink  

    das passt jetzt also ganz gut zu: http://carta.info/39535/warum-twitter-ein-sicherer-ort-ist/ zitat:

    (1) Wer meint, Informationsüberfluss durch härtere, präzisere, konsistentere Analyse in beruhigende Übersicht zu verwandeln, irrt. (Gründlich. Grundsätzlich. Prinzipiell.)

    (2) Wer meint, Informationen seien kontrollierbar, disziplinierbar, normierbar, der muss sich sagen lassen, dass jeder Totalitarismus genau diese Ziele verfolgt hat. (Autsch!)

    (3) Wer meint, weiterhin Informationen beschränken, bündeln, sortieren, kanalisieren zu können, darf den Einsatz von gewaltiger Macht nicht scheuen. (Just do it. Yes we can.)

    (4) Wer meint, eine Information müsse bloss «kurz, knackig, knackiger» vermittelt werden, es gewinne einfach jener, welcher länger, lauter, penetranter penetriere, hat vermutlich Recht. (Und jetzt? Wir haben verstanden.)

    die “lösung” in “mehr desselben” zu denken, “hilft” nix. die unterscheidung in “sender” und “empfänger” ist ein klassisches “mehr desselben”. wittgenstein hat schon früh geraten: «Lösungen erkennt man am Verschwinden des Problems»:

    http://www.medienheft.ch/de/nc/14/date/0000/00/00/warum-twitter-ein-sicherer-ort-ist/article/6.html

  3. JLH |  06.04.2011 | 14:55 | permalink  

    “Jede Operation im Digitalen ist eine Kopieroperation. Über 90% aller Befehlssätze eines Computerprozessors sind Kopierbefehle; das Internet ist somit eine riesige Kopiermaschine.”

    Ich habe mehrere Probleme mit dieser Aussage. Wie wird hier “Kopieroperation” definiert? Sind das Übernehmen und Übergeben von Daten zwischen (Haupt-)Speicher und CPU gemeint? Oder meint dieses “Kopieren” auch die Signalübernahme eines an Eingängen liegenden Signals? Sind CPU-interne Registerkopiervorgänge auch Kopiervorgänge? Letzteres tritt beispielsweise auch auf, wenn nicht vom Nutzer direkt veränderbare Register kopiert werden. Das passiert bei jeder Addition, wo das Ergebnis zunächst in einem Ergebnisregister zwischengespeichert wird, bevor es in das Zielregister _kopiert_ wird.

    Im Übrigen ist die Aussage “90% aller Befehlssätze eines Computerprozessors sind Kopierbefehle” sehr vage und womöglich falsch, da _der_ Befehlssatz (die meisten verbauten Prozessoren sind da auf einen festgelegt) sich so schnell nicht ändert, und die 90 % doch irgendwie aus der Luft gegriffen sind. Wann ist ein Befehl ein Kopierbefehl?

    Weiterhin ist der Zusammenhang zwischen dem, sagen wir, hohen Kopieroperationsanteil einer CPU und dem Internet an sich irgendwie Äpfel und Birnen.Was das einzelne System macht, muss noch lange nicht ein Rechnernetz zwischen den Rechnerknoten machen. Es könnte auch ganz anders sein. Was ich sagen will: Man kann nicht von dem einen auf das andere schließen.

    Die eingangs zitierte Aussage fällt für mich in die Kategorien “Oft abgeschrieben, selten überprüft” und “Kann man immer behaupten, es gibt zu wenige Menschen, die es fundiert kritisieren können”.

  4. mspro |  06.04.2011 | 16:18 | permalink  

    Dann fällt dein Kommentar also in die Kategorie: “Würde das gerne fundiert kritisieren, hab aber kein Bock das zu nachzuschauen, also mecker ich mal einfach so rum und tu so als ob ich könnte wenn ich wollte.”?

  5. 3 Gründe für den digitalen Kontrollverlust |  06.04.2011 | 17:24 | permalink  

    [...] Seemann fasst seine Thesen zum digital verursachten Kontrollverlust auf Carta (bzw. im einem Text eines Bands der Heinrich-Böll-Stiftung) [...]

  6. Rudy Gasson |  06.04.2011 | 18:41 | permalink  

    Schöner Text.

    Immer wieder auch passend zum Thema (mehr aus der literarischen und skeptischen Ecke) sind auch Stanislaw Lems Gedanken zu dem, was er 1984 in seinem Roman “Lokaltermin” schon satirisch “Ignorantik” getauft hatte: das Wissen über das aktuelle Unwissen aufgrund von Informationsverstopfung. Er zitierte sich diesbezüglich selbst noch einmal in einem Artikel 1997, der noch online bei heise steht (“Labyrinthe der Information”):

    http://www.heise.de/tp/r4/artikel/2/2125/1.html

  7. noName |  06.04.2011 | 19:16 | permalink  

    Gut. Interessant auch die Gedanken zur «Query-Öffentlichkeit».

    Die Gesichtserkennung finde ich problematisch, kann einengen, Persönlichkeitsrechte verletzen.

  8. kadekmedien |  06.04.2011 | 19:36 | permalink  

    »Die Freiheit des Anderen, zu lesen oder nicht zu lesen, was er will, ist die Freiheit des Senders, zu sein, wie er will.«

    Schöner Satz. Aber das war schon immer so. Die Weitergabe von Informationen an andere Menschen ist immer (auch) ein Kontrollverlust, da a) der Sender grundsätzlich damit anfangen kann was er will und b) der Kontext, in dem Information erst ihre volle Bedeutung bekommt, oftmals auf der Strecke bleibt.

  9. kadekmedien |  06.04.2011 | 19:38 | permalink  

    Sorry, statt der »Sender« muss es natürlich der »Empfänger« heißen, der grundsätzlich mit empfangener Information anfangen kann, was er will. Insofern kann und wird der Sender sich immer völlig frei fühlen.

  10. Berliner Blogs im Wikio-Ranking April 2011 – Von Stefan Stahlbaum |  06.04.2011 | 20:08 | permalink  

    [...] 2. nerdcore (2) 3. Carta (6) 4. Fefe`s Blog(7) 5. Ignant (8) 6. Gilly`s playground (9) 7. blog.rebellen.info (10) 8. [...]

  11. Lyci |  06.04.2011 | 20:13 | permalink  

    Wegen solchen Texten habe ich Carta im RSS-Feeder. Sehr interessante Analyse.
    @ Schwester: Die Welt geht immer irgendwo unter. Wenn es dich nicht interessiert, dann lies es halt nicht.

  12. Aufmerksamkeit! |  06.04.2011 | 21:58 | permalink  

    “Und das wäre also der letzte Grund, der vierte und endgültige, für den Kontrollverlust: Der Wertewandel durch die Filtersouveränität wird dafür sorgen, dass der Mensch den Kontrollverlust nicht nur in Kauf nimmt, sondern sogar gegen alle Widrigkeiten verteidigen wird.”
    Nein, nicht “der Mensch”, vielleicht eine Gruppe von Menschen, ja.

    Das ist sicher keine schlechte Beschreibung dessen, was möglich ist. Einzig fehlt mir hier die soziale, philosophische, vielleicht menschenachtende Komponente.
    Die Transparenz vieler Texte mag ein Segen sein, die Perspektive der Totalüberwachung, Kategorisierung, etc. mit all ihren diktatorischen Auswüchsen ist es sicher nicht.
    Da werden bei mir auch Gedanken an “Brave New World” und … weitergedacht, wenn Babel dann niedergebrannt ist …an “Fahrenheit 451″ wach.

  13. Totale Transparenz – Kritik und Chance der Information | The Sacred & The Profane |  06.04.2011 | 21:59 | permalink  

    [...] Gleichzeitigkeit der Information macht Datenschutz zu einem Kartenhaus das in sich zusammenfällt. Filter können vielleicht auch nicht alles regulieren – und sollten sie auch [...]

  14. n99 |  06.04.2011 | 22:55 | permalink  

    Das alte Schmidt-Zitat. Hört sich vllt. toll an ist aber Quatsch.
    http://themetricsystem.rjmetrics.com/eric-schmidts-5-exabytes-quote-is-a-load-of-c

  15. Dr. Kalaua |  07.04.2011 | 00:19 | permalink  

    Ich habe gegen Mitternacht den ganzen Text mit voller Muße gelesen. Interessante Analyse. Viele Gedanken, die es lohnt, noch mal bei Tageslicht zu beleuchten. Habe endlich auch einen Zugang zu Luis Borges’ «Die Bibliothek von Babel» bekommen. Vielen Dank für diese nächtlichen Leuchtspuren

  16. andreas.posur |  07.04.2011 | 00:23 | permalink  

    Ganz blöde Frage: Bin ich rückständig/ein Kommunikationsfeind, wenn ich Diaspora*, “federated social web” Möglickeiten nutze und die Daten welche ich in die Welt rausschreie vorselektieren möchte, oder gar, dass ich anfange !1984! meine Kommuniktion krypto-technisch etwas durch GPG anreichere?

    Klar man kann alles “hacken”, aber bis Quantencomputer im Besitz der NSA sind ist doch aes256 doch ganz sinnvoll

  17. Vom Kontrollverlust zur Filtersouveränität |  07.04.2011 | 08:52 | permalink  

    [...] CARTA: “Die Allgegenwart von Aufzeichnungsgeräten verbindet die digitale Welt immer enger mit der an… [...]

  18. tee jay |  07.04.2011 | 11:24 | permalink  

    Schöner Artikel, sachlich und sauber geschrieben. Ich stimme Deinen Schlussvolgerungen zwar nicht zu, aber ich freue mich, dass aus der datenschutzkritischen Ecke Argumentationen kommen, die weit über dem Niveau von “ich habe nichts zu verbergen” und “der Muselmann wird uns alle vernichten” liegen.

  19. JLH |  07.04.2011 | 11:42 | permalink  

    (mspro schrieb: Dann fällt dein Kommentar also in die Kategorie: “Würde das gerne fundiert kritisieren, hab aber kein Bock das zu nachzuschauen, also mecker ich mal einfach so rum und tu so als ob ich könnte wenn ich wollte.”?)

    @mspro: Nein. Ich habe fundierte Assembler-Kenntnisse, einige Jahre technische Informatik unterrichtet und möchte behaupten, dass ich weiß, wovon ich schreibe.

    Ich habe gestern, bevor ich den Kommentar schrieb, nachgezählt. Um eine hinlänglich alte und damit verbreitete Basis zu referenzieren, habe ich mir ein 80386-Manual geschnappt und geschaut, wie viele Befehle (mnemonics) ich da überhaupt habe und wie viele Op-Codes ergeben sich daraus im Maschinencode. Bei diesem Prozessorbefehlssatz sind es 143 Mnemonics, die dann auf 649 Op-Codes abgebildet werden. Befehlserweiterungen, die sich erst in den Jahren danach etabliert haben, z.B. MMX oder die SSE-Familie, machen die Angelegenheit komplexer, spielen im täglichen Leben aber nur eine untergeordnete Rolle. Es ist daher legitim, sie zunächst nicht zu berücksichtigen.

    Die Frage, was denn nun ein Kopierbefehl ist, wurde mir beim Zusammensuchen der Befehle immer offensichtlicher. So richtig ist das nicht zu beantworten, wenn man nicht zunächst festlegt, was man unter Kopierbefehl versteht. (Zitat von Dir: “Jede Operation im Digitalen ist eine Kopieroperation”) Es ist aufgrund der Eigenheit eines digitalen Elektronik-Systems tatsächlich Definitionssache. Das Setzen oder Rücksetzen eines Bits (z.B. das Carry-Bit mit STC) generiert die 1 oder 0 ja erst. So richtig wird da nicht kopiert. Oder doch? Intern sicher, denn irgendwann wird da eine 1 oder 0 an einen Eingang angelegt und von der Schaltung dahinter übernommen (“kopiert”), aber davon bekommt man bereits als Assembler-Programmierer (vor seiner Black-Box “Prozessor”) außer den Auswirkungen nichts mehr mit (“nicht kopiert”).

    Ganz unabhängig davon ist die Frage: Wie oft wird denn der zur Verfügung stehende Befehl überhaupt benutzt? Darüber gibt es wissenschaftliche Ausarbeitungen, schließlich ist das eine wichtige Frage beim Entwurf neuer Rechnerarchitekturen. Es nutzt nichts, einen selten verwendeten Befehl sehr zu optimieren. Nicht nur Tanenbaum schreibt darüber in seinem Standardwerk; für weitere Prozessorarchitekturen wie Alpha, VAX u.a. gibt es einige wissenschaftliche Artikel aus den 1980ern, als noch nicht entschieden war, welche Architektur sich schließlich durchsetzen wird (das kam erst in den 1990ern). Bei Google Scholar findet man entsprechendes Material mit den Suchbegriffen “usage instructions cpu”. Wer mag, kann dort gerne weiterlesen.

    Im übrigen solltest Du deine Formulierung tatsächlich überarbeiten. Ich weiß nicht so recht, wie Du genau argumentieren möchtest. Ich denke aber, dass Du dich festlegen solltest, ob Du nun einen bestimmten Befehlssatz meinst oder einen bestimmten Prozessor (was heutzutage fast das gleiche ist). “90% aller Befehlssätze eines Computerprozessors” ist formulierungstechnisch aber eine Selbstoffenbarung, dass Du nicht weißt, wovon du schreibst (so zumindest der Eindruck).

    Außerdem musst Du schon sagen, was für Dich ein Kopierbefehl ist. Überdenke, ob die im statistischen Mittel meistverwendeten Befehle nicht eine viel bessere Argumentationsbasis darstellen. Weiterhin ist es unabdingbar, dass Du herausarbeitest, wieso diese Aussagen über Prozessorkopierbefehle wichtig sind für die Funktionsweise des Internets, das gerade kein Computerprozessor ist. Dein bisheriger Argumentationsstrang gibt genau diesen Zusammenhang nicht her.

  20. pavel |  07.04.2011 | 11:56 | permalink  

    “Während in einer Welt der Wände und Entfernungen noch ein großer Aufwand betrieben werden musste, um eine Information an einen Empfängerkreis weiterzuverbreiten, der über eine mittlere Ratsversammlung hinausgeht, muss man heute einen ähnlichen Aufwand betreiben, um dieselbe Information nicht sofort weltweit zugänglich zu machen.”

    Dass man Schlösser schon immer knacken konnte hat irgendwie nicht dazu geführt, dass diese Kulturtechnik in die Vergessenheit geraten ist. Keeping honest people honest, sagt dir das was?

    “Und wenn man eine Information wieder aus dem Netz herausbekommen will, hat man ein Problem.”

    Theoretisch richtig, praktisch sollte man aufs Web bezogen von “brisanten Informationen” sprechen. Daten, die nicht von 4chanisierten Massen oder transparency-Aktivisten weiterverbreitet werden, verschwinden ganz schnell mit abgelaufenen Hostingverträgen und gelöschten Blogs, führen zu einer ganzen Menge toter Links und sind dann nicht mal im Google-Cache oder im Web Archive zu finden. Sind also faktisch im Google-Universum nicht existent.

    “Wenn man in Betracht zieht, dass Punkt eins und zwei sich entlang von «Moores Law» exponentiell weiterentwickeln (Verdopplung etwa alle 18 Monate), kommt man unwillkürlich an den Punkt, der immer wieder schwarz an die Wand gemalt wird: die Informationsüberflutung.”

    Immer dieses Überflutungsgerede. Wer wird dabei überflutet? Googles Serverfarmen bestimmt nicht. Auch bei Twitter oder sonst wo wird man nicht als lesendes Subjekt nicht überflutet, wenn man nicht unter Aufmerksamkeitsdefizitsyndrom leidet. Die Überwucht der Informationsmenge schafft Relevanzkriterien nicht ab. Und die werden nicht von der Technik, sondern von mir produziert — wie du bezogen auf die Twitter-Timeline auch richtig sagst.

    “Die Query-Öffentlichkeit ist die positive Kehrseite des Kontrollverlusts. Sie ist das Stück Autonomie, dass der Empfänger von Informationen hinzugewinnt, welches der Sender der Information durch den Kontrollverlust verloren hat.”

    Die “Query-Öffentlichkeit” ist eine echo chamber, in der nur das nachhallt, was von vorn herein als relevant definiert und Gegenstand einer query wurde. Und diese echo chamber wird wachsen, bis das semantic web irgendwann den Kinderschuhen entwachsen ist.

    Die ganzen Effekte, die du jetzt der “Query-Öffentlichkeit” ankreidest, Stichwort Manning-Leaks und so, wären nichts ohne die “konventionelle” Öffentlichkeit der Massenmedien, die nach ihren eigenen Relevanzkriterien funktioniert. Es gibt tausende von Dokumenten bei Wikileaks, die scheinbar so unbrisant sind, dass sie weder in der von dir so genannten “Query-Öffentlichkeit” noch in den konventionellen Medien Wellen schlagen. Wichtig ist eben nicht die Information an sich, die ihrer Natur nach irgendwas bewirkt, irgendwas “will” (wie in ‘information wants to be free’), sondern der konkrete Einzelfall in einem bestimmten sozialen Kontext.

    “Wenn sich – erstens – Information aufgrund ihrer billigen Speicherbarkeit nicht mehr für ihre Existenz rechtfertigen muss”

    Sie muss sich spätestens dann rechtfertigen, wenn sie aus Subjektsicht irrelevant ist und einfach untergeht.

    “Die Freiheit des Anderen, zu lesen oder nicht zu lesen, was er will, ist die Freiheit des Senders, zu sein, wie er will.”

    Die Freiheit, irrelevant zu sein, ist ziemlich alt.

    Insgesamt ein interessanter Beitrag, nur wird — wie in der #postprivacy-Szene inzwischen üblich — für meinen Geschmack zu sehr mit Unumgänglichkeiten und Sachzwängen argumentiert. Alles Chancen, keine Risiken?

  21. mspro |  07.04.2011 | 14:04 | permalink  

    @n99 danke für den Link. Ich habe den inzwischen auch gesehen. Aber dieser Text hier ist wie gesagt etwas älter, als das Schmidtzitat meines Wissens noch nicht angegriffen war. Bei der nächsten Reformulierung werde ich das berücksichtigen.

    @JLH Danke, dass du dir die Mühe gemacht hast. In der Tat ist meine Argumentation informatisch gesehen etwas lax. Vielleicht kann man das sogar etwas unangreifbarer und besser verargumentieren. ich glaube aber dennoch, dass der Punkt auf den ich hinaus will: die “Natürlichkeit” des Kopierens im Digitalen schlüssig ist. Wenn ich eine bessere Argumentation finde, die sowohl informatischen Ansprüchen genügt, als auch denen verständlich ist, die gar keine Ahnung von der Materie haben, werde ich das überarbeiten. Für noch konkretere Vorschläge bin ich offen.

    @pavel Danke für die ausführliche Kritik. Ich habe gerade keine Zeit alle Punkte einzeln abzuarbeiten, deswegen nur kurz generell:

    Es ging mir hier nicht die Chancen vs. Risiken der Postprivacy zu diskutieren. Das habe ich oft genug wo anders gemacht (und habe dabei nie die Risiken bezweifelt). Hier geht es mir eher darum, welche Unterschiede die Veränderungen (die du unschwer bestreiten kannst) das im Mindset und in der Kultur hinterlassen wird. Kann natürlich sein, dass du Recht hast und es wird sich nichts ändern. Ich halte das aber für unwahrscheinlich.

  22. Tommaso |  07.04.2011 | 15:50 | permalink  

    Ähm, ja. Vielleicht noch etwas Hintergrund zur Bibliothek zu Babel? Habe ich u.a. hier gefunden: http://gedankenstrich.org/2010/05/das-web-die-bibliothek-zu-babel/

  23. Gero |  07.04.2011 | 15:52 | permalink  

    Gute Analyse.
    Aber warum ist das ein Plädoyer für post-privacy?

    Der Kontrollverlust ist gut beschrieben, aber wo genau greift er denn in das Private eines jeden Menschen ein?

    Wir geben alle (die ins Internet schreiben) viel von uns Preis, aber das tun wir selbst, folglich haben wir noch immer die Kontrolle über diese Daten (wir hätten sie ja nicht veröffentlichen müssen …). Wenn wir sie veröffentlichen, wollen wir auch, dass sie verbreitet werden. Andernfalls würde man sie nicht veröffentlichen.

    Der Rückschluss auf das private Leben fehlt mir aber. Warum genau sollen wir deshalb nun unser Privatleben aufgeben?

    Es gibt viele öffentlich einsehbare Daten, die jeder betrachten kann (Twitter, Blogs), aber es gibt eben auch private Bereiche (Mails, Chats), die privat sind.

    Und: /surprise/ diese Daten interessieren keine Sau. Ich kenne wirklich wenig Menschen, deren Mailaccount gehackt wurde und so an private Daten gelangt werden konnte. Und: Ich kenne viele Menschen, deren Passwörter durch bloßes Probieren geknackt werden könnten. Und trotzdem werden sie nicht geknackt.

    Man könnte es Moral nennen, was uns davon abhält. Viele Menschen erkennen einfach an, dass man so etwas nicht macht – und machen es auch nicht. Und das ist vollkommen in Ordnung so.

    Der Kontrollverlust setzt auch nicht in diesem Bereich ein, sondern nur in dem Bereich, der von öffentlichem Interesse ist. Was die USA so für Geheimdienstnachrichten durch die Gegend schickt, ist tatsächlich von Interesse und dafür lohnt es sich über Grenzen hinweg zu gehen – aber für das Privatleben einer einzelnen Person lohnt es einfach nicht, seine eigenen, moralischen Grenzen umzuwerfen. Und das ist gut so.

  24. mspro |  07.04.2011 | 16:31 | permalink  

    Gero – Wie ich gerade eben schon sagte, behandelt dieser Text nicht die Postprivacy.

  25. Fritz |  07.04.2011 | 22:47 | permalink  

    Zweifellos spitzt sich der Beitrag auf einen Punkt zu, wo die entscheidende Divergenz auszumachen ist gegenüber allen früheren Formen von Informationskulturen.
    Allerdings habe ich den Eindruck, dass die Dialektik dieser neuen Öffentlichkeit nicht richtig angepackt wird. Z.B. hier: “Der Kontrollapparat wird nun zum Kontrollverlustinstrument.” Die Anekdote illustriert das scheinbar genau – du kannst aber aus der gleichen Anekdote nahezu das Gegenteil folgern: Das Kontrollinstrument richtet sich nämlich nun plötzlich gegen den Kontrolleur – bleibt aber selbstverständlich eine Überwachungskamera und zwar viel mehr als je zuvor.
    Du bist schon näher dran an der Dialektik, wenn du schreibst: “‘Leaken’ ist sozusagen die Standardeinstellung des Netzes.” Leaken ist ja nichts anderes als die Erweiterung der Kontrolle der Öffentlichkeit auf die früheren Arkanbereiche.
    Aus genau diesem Grund sind die Debatten um “Privacy”/Geheimhaltung bzw. No-Privacy/radikale Offenlegung auch hoch politisch und alles andere als Debatten, die angesichts des allgemeinen Weltenuntergangs niemanden interessieren müssten. Mit am rabiatesten verteidigen derzeit China, Russland und USA ihr Geheimhaltungsprinzipien – denn Macht braucht Geheimhaltung als modus operandi des Machtmissbrauchs. Das Wort “Filtersouveränität” hat daher für die KP eine exakt umgekehrte Bedeutung wie bei dir.
    Wo die Entwicklung hingeht, weiß keiner. Ich würde nicht nach 5 Jahren Facebook gleich hoch spekulative Extrapolationen auf die nächsten 50 Jahre veranstalten. Vorsichtig vermuten würde ich lediglich Folgendes: Solange vom letzten Kuhkaff bis zur hohen Geopolitik Tag für Tag Scheiße passiert, wird es Kämpfe geben, wie diese Scheiße nicht ruchbar wird. Der vermehrte Kontrollverlust ist ja auf der Rückseite der Medaille eben mehr Kontrolle, übrigens sowohl für den Staat wie für die Bürger. Beide Seiten sind jetzt Überwachte und Überwacher. In irgendeiner Form wird es daher unvermeidlich eine Reguierung des “Kontrollverlusts” geben – Kompromissformen. Genau solche Ansätze zu Kompromissen sind gegenwärtig überall zu beobachten. Bei den neuartigen Institutionen wie Facebook genauso wie bei den neuartigen Subjekten der Öffentlichkeit, also den Menschen, die sich immer mehr überlegen, wo sie wem gegenüber auf welchem Kanal was mitteilen und worüber sie lieber nichts sagen.

  26. emkaa21 |  07.04.2011 | 23:25 | permalink  

    Sehe ich ähnlich wie @Fritz #25. Der wechselseitige Kontrollverlust zwischen Staat und Bürgern wird von beiden Seiten, versucht einzudämmen. Dies passiert von staatlicher Seite durch Geheimhaltung, dem Bestehen auf Deutungshoheit und in einigen Fällen sicher auch durch Zensur-Infrastrukturen. Bei Einzelpersonen geschieht dies durch den Versuch, auszuwählen welche Daten wem zugänglich werden. Sowohl Staat als auch Bürger verlieren aus den von Dir genannten Gründen (Aufzeichnungssysteme, Daten-Agilität, Daten-Verknüpfbarkeit) an Wirkungsmacht.
    Die Filtersouveränität des Empfängers steht also immer im Spannungsverhältnis zwischen Kontrolle des Senders und eben dessen Kontrollverlust über die eigene Darstellung. Datenschutz und “Post-Privacy” können deshalb immer nur als Tendenzen verstanden werden – bei absoluter Umsetzung einer der beiden Extreme würde Kommunikation, wie wir sie kennen, nicht mehr bestehen können…

  27. Sozialtheoristen » Wissen, was man tut |  08.04.2011 | 12:09 | permalink  

    [...] So. Ich bin jetzt im Bilde. Es gibt eine neue Öffentlichkeit, sie heißt Query-Öffentlichkeit. Statt dass, wie früher, irgendwelche „Sender“ entscheiden, was ich wissen darf, entscheide von nun an ich, der „Empfänger“, was ich wissen will. Da nämlich alles, was ich wissen wollen könnte, total verfügbar ist, muss ich nur meine Queries im Griff haben, um an meine Ziele zu kommen. Alles, was ich brauche, ist „Filtersouveränität“, die neue „Informationsethik“ mit der ich den „Kontrollverlust“ überwinde. Ach ja, ein Kontrollverlust entsteht, „wenn die Komplexität der Interaktion von Informationen die Vorstellungsfähigkeiten eines Subjektes übersteigt“. (Wer mehr davon will, bitte hier nachlesen.) [...]

  28. Christian Edom |  08.04.2011 | 20:18 | permalink  

    Aus Deskription allein lassen sich keine normativen Schlussfolgerungen ziehen. Und der Rücktritt des Bundespräsidenten hatte sicher andere Gründe. Horst Köhler hatte bereits bei der Presse verspielt, die ihn nicht mehr stützte.

    Es gibt keinen “Kontrollverlust”. Es gibt nur ein Scheitern des Kontrollstrebens. In einem Dorf kann Klatsch und Tratsch auch nicht beherrscht werden.

    Das Hauptproblem ist, dass die Freaks hinter “post-privacy” zu oft ungebildete junge Nerds sind und nichtmal – wie auch Jounralisten – Rätsel von Geheimnissen unterscheiden können.

    Wikileaks ist eine Art privater dubioser Geheimdienst, der nicht die Macht von Nutzer erhöht, sondern die Chancen zur Manipulation der Öffentlichkeit und die alte Machtbalance zwischen Machtgruppen trifft.

    Daten ersetzen nicht unserer Urteilsvermögen, auch wenn die Präsentation von Daten dies suggeriert. Das ist wie Power Point. Daten sind keine Information. Daten ersetzen kein Urteil und eigene Entscheidungen über den Weg. Die Frage ist, ob automatische Verknüpfung einen Sprung von Daten zu Information bedeuten kann. Das Verhalten von Menschen ist nicht berechenbar. Es ist nur prognostizierbar. Was sagt denn das schon, dass jemand homosexuel list? Das kann der geübte Beobachter auch so erkennen.

    Es ist nicht anders als in der Politik: Wer eine gute Rede halten kann, ist nicht darauf angewiesen, mittels künstlicher Mittel zu brillieren. Wer sich gut äußern kann, kann auch eine Art “alternatives Management” der Bewertung seiner Daten betreiben. Hier würde ich z.B. Aussagen von Peter Kruse bezüglich Guttenberg widersprechen. Es bedarf eben echter Interaktion und nicht nur “System”, um in der Lebenswelt anzukommen.

    Und über Bradley Manning wissen wir nicht außer Anekdoten. Ich kenne diesen Menschen nicht, sondern nur Bilder und Daten.

    Eric Schmidt spinnt betreffend seiner großspurigen Aussagen. Er sollte mal lieber die Bibel und etwa Gadamer lesen. Hat Google die Bibel neu übersetzt? Wo ist bitte die kulturelle Leistung von Google? HD Fernsehen schafft auch keine interessanteren Stories. Google hat die Hermeneutik nicht erfunden. Die ganzen Daten verändern doch nicht die “Wirkungsgeschichte” oder Tradition, innerhalb der sich die Menschheit bewegt. Alle Daten, die über die Menschen entstehen, tragen nichts neues bei, das Rätsel des Menschen zu lösen. Endlose Daten kommen der Unendlichkeit des Menschen nicht bei.

    Daten leisten keine Entmythologisierung! Sie schaffen auch keine neue Wahrheit. Transparenz leistet keine Entbergung des Verborgenen zur Unverborgenheit. Diese ganzen Quantitäten sind rein nominell und selten qualitativ.

    Bisher sind die Bibliotheken der Menschheit meistens abgebrannt.

  29. Noel |  13.04.2011 | 00:00 | permalink  

    Ich will nur eines zu bedenken geben. Das Internet funktioniert mit Strom. Angeblich verbraucht das Ansehen eines 3 Minuten YouTube Videos die Energie von 2 kg Kohle.

    Die Unendlichkeit der „Querys“ ist zwar theoretisch aber nicht praktisch verfügbar. Und das fragt dann nach Filtern, auf die sich allgemein verständigt wird. Und die werden vielleicht erstaunlicherweise einige Ähnlichkeiten mit den „überkommenen“ Filtern haben.

    z.B. bedeutet es, dass vielleicht irgendwelche Algorithmen jeden QuatschGummi Text von mspr0 sinnvoll machen können, man aber immer noch bevorzugt, dass mspr0 sich bei deren Produktion selbst Mühe gibt – eben filtert.

    Vernünftiges, sauberes und geschmackssicheres Denken… knifflig für KI

  30. karstenpe |  14.04.2011 | 09:13 | permalink  

    Vielen Dank für den gelungenen und prägnanten Text!
    Zum Thema “Kopiermaschine” würde ich gerne noch hinzufügen, dass das Internet ebenfalls eine “Referenzmaschine” ist. Den Nobelpreis gibt es sicherlich irgendwann für die “Erfindung” bzw. (einfache) technische Umsetzung des Hyperlinks.

  31. ALIVEE |  15.04.2011 | 02:16 | permalink  

    Was Moore’s Law angeht so sind Ihre Aussagen definitiv falsch. Seit jeher beschreibt das Mooresche Gesetz die Entwicklung der Komplexität von Computerprozessoren. Mit den Datenmengen in diesem Systemen hat diese Faustregel nichts zu tun sondern eher noch mit der Rechenleistung.

    Allgemein sind die Zeiten, in denen Speicherplatz kostbar, Traffic teuer und das Internet langsam war, alle schon sehr lange vorbei. Längst geht es mehr um mobile Geräte und entsprechende neue Features als um die höchste Computerleistung oder höchste DSL-Geschwindigkeit. Hier hat sich in der Technik ein Wandel vollzogen, der in Ihrem Text leider völlig unberücksichtigt ist.

    Es ist wohl längst eine Datenmasse erreicht, die durch noch mehr Daten nur noch wenig mehr Nutzen bringt. Ein paar Daten werden durch die technische Weiterentwicklung immer dazu kommen, aber ich denke die Verknüpfungen werden in den nächsten Jahren wesentlich entscheidender sein.

  32. WMR21 – Re:volution! » Wir. Müssen Reden |  19.04.2011 | 19:00 | permalink  

    [...] erzählt noch von seinem Vortrag auf der re:publica über den #Kontrollverlust, der in Teilen eh hier nachzulesen [...]

  33. mspro |  20.04.2011 | 00:47 | permalink  

    ALIVEE – Steng genommen hast du recht. Wenn man es genau bezeichnen will, wird das Gesetz des billiger werdenen Speicherplazes Kryder’s Law. Da es aber der selben Gesetzmäßigkeit unterliegt und wahrscheinlich die selben Ursachen hat (dramatisch sinkender Energiebedarf bei Miniturisierung der Komponenten) und Moore einfach schneller war und kryder’s Law sowieso keiner kennt, halte ich es für opportun dise Abkürzung zu gehen.

  34. Die Institution und der Dämon | ctrl+verlust |  20.04.2011 | 10:25 | permalink  

    [...] dem Artikel für die Böllstiftung sind – wie ich bereits andeutete – noch nicht alle Aspekte versammelt, die es zum [...]

  35. RP11 – Der Aufbruch « H I E R |  20.04.2011 | 18:36 | permalink  

    [...] sind. Sorry dafür. Aber die Infos sind gottseidank alle im Netz vorhanden. Hier mein Artikel bei Carta, wo es um die technischen Grundlagen des Kontrollverlusts im Digitalen geht und hier die Ergänzug, [...]

  36. #public_life | futuretune |  25.04.2011 | 10:02 | permalink  

    [...] und der Filtersouveränität von Michael Seemann. Dieser Artikel ist bereits zuvor bei carta.info [3] erschienen und ordnet die beiden Begriffe und versucht mit deren Hilfe aktuelle Geschehnisse in [...]

  37. ke |  29.04.2011 | 14:31 | permalink  

    Wenn sich – erstens – Information aufgrund ihrer billigen Speicherbarkeit nicht mehr für ihre Existenz rechtfertigen muss und wir – zweitens – annehmen, dass die Querys, die man auf einen Datensatz anwenden kann, in ihren Möglichkeiten unendlich sind, gibt es plötzlich keine legitime Instanz mehr, die sich anmaßen könnte zu entscheiden, was wichtige, unwichtige, gute oder schlechte Information ist. Das Zusammenstellen von Querys und Präferieren von Filtern wäre das radikale Recht ausschließlich des Empfängers.
    Gleichzeitig befreien diese unvorhersehbaren, weil unendlichen Querys auch den Sender der Information. Sie befreien ihn davon, Erwartungen entsprechen zu müssen. Denn der Andere kann, weil er in unendlichen Quellen mit perfekt konfigurierbaren Werkzeugen hantiert, keinen Anspruch mehr an den Autor stellen – weder einen moralisch-normativen noch einen thematisch-informationellen. Die Freiheit des Anderen, zu lesen oder nicht zu lesen, was er will, ist die Freiheit des Senders, zu sein, wie er will.

    Sehr gute Gedanken! Etwas ganz Ähnliches sagt Tim Berners-Lee, wenn er für die Veröffentlichung von Rohdaten im Semantic Web wirbt.

  38. Postprivacy: Filtersouveränität schon am Ende? « Nick Haflingers Blog |  03.05.2011 | 01:11 | permalink  

    [...] Michael Seemann aka mspro wirft nun – recht unausgegoren, wie er anerkennenswerterweise selbst sagt – zwei Begriffe als Spielbälle in die Diskussion, Kontrollverlust und Filtersouveränität. [...]

  39. Kontrollverlust: Die Daten sind öffentlich! | Wollmilchsau |  05.05.2011 | 12:10 | permalink  

    [...] darüber weiter nachdenken möchte, dem empfehle ich den Text: “Vom Kontrollverlust zur Filtersouveränität“ auf carta, und natürlich Michael Seemanns Blog [...]

  40. Der ungeliebte Kontrollverlust: Internet am Scheideweg » netzwertig.com |  23.05.2011 | 08:31 | permalink  

    [...] des 20. Jahrhunderts bekommen in immer kürzeren Abständen vorgeführt, wie ihnen langsam die sicher geglaubte Kontrolle verloren geht.Die Befürworter eines regulierten Internets formieren sichEine solche Entwicklung bringt [...]

  41. Die Filterbubblebubble | ctrl+verlust |  07.06.2011 | 12:43 | permalink  

    [...] und was sind ihre Eigenschaften, Vorteile und Ethiken? Meines Erachtens ist hier der Begriff der Filtersouveränität unerlässlich. Es geht um eine neue Form der Selbstbestimmung. Eine Emanzipation von einer anderen [...]

  42. Google: Eichhörnchen oder Krake? « dextertue |  06.07.2011 | 14:44 | permalink  

    [...] Michael Seemann stellt die These auf, „dass das Internet und die digitale Technik diese Kontrollverluste sowohl in ihrer Häufigkeit als auch in der Intensität ihrer Folgen um ein Vielfaches steigert.“ Er nennt drei grundlegende Elemente des Kontrollverlusts über das Internet: [...]

  43. Gedanken zum Kontrollverlust | diesesinternet |  12.07.2011 | 01:00 | permalink  

    [...] Aufhänger – also tue, was ich meistens tue, und versuche, Seemanns Kontrollverlust anhand seines carta-Artikels darüber zu analysieren und zu [...]

  44. beim wort genommen » Blog Archiv » Gedanken zum Kontrollverlust » beim wort genommen |  12.07.2011 | 18:34 | permalink  

    [...] Aufhänger – also tue, was ich meistens tue, und versuche, Seemanns Kontrollverlust anhand seines carta-Artikels darüber zu analysieren und zu kritisieren. Ein wenig Aktualität erhält das Thema eventuell durch [...]

  45. Kontrollverlust im Internet – ein dramatisches Beispiel « pimewi |  17.07.2011 | 21:21 | permalink  

    [...] Medientheoretiker Michael Seemann definiert das Phänomen Kontrollverlust wie folgt: „Ein Kontrollverlust entsteht, wenn die Komplexität der Interaktion von [...]

  46. Google+ Circles: Social Media mit mehr Kontrolle auf der Senderseite « Schaeferblick Weblog |  24.07.2011 | 22:10 | permalink  

    [...] Soziale Medien wie Blogs, Microblogs, Wikis und Foren zeichnen sich insbesondere durch einen Paradigmenwechsel in der Informationsverteilung aus. Anstatt gezielt Empfänger zu adressieren bzw. adressieren zu müssen (wie z.B. bei E-Mail), findet die Informationsverteilung, und damit auch die Kommunikation, über mehr oder weniger öffentlichen Plattformen statt. Hier kann und muss der Empfänger selbst auswählen, welche Informationen er konsumiert bzw. welche er filtert (vgl. Push vs. Pull oder Filtersouveränität). [...]

  47. „Wikileaks und die Unbeherrschbarkeit der Daten“ – Zu einem Vortrag von Michael Seemann « mcinblog |  25.07.2011 | 21:12 | permalink  

    [...] spricht von Kontrollverlust im Internet. Was aber meint er damit? Seiner Theorie nach entsteht Kontrollverlust, wenn die [...]

  48. Twitkrit — To Much Information |  17.08.2011 | 11:47 | permalink  

    [...] um andere nicht damit zu belästigen. Aus diesem Grund habe ich damals eigentlich die “Filtersouveränität” erfunden. Sie ist meine in der Filterfähigkeit des Anderen realisierte, absolute [...]

  49. Wikileaks Kontrollverlust | ctrl+verlust |  07.09.2011 | 13:18 | permalink  

    [...] (via) Ein Kontrollverlust ist immer ein notwendig subjektiver, wenn auch kein ausschließlich menschlicher. Aber es braucht einen Akteuer (oder Akteure), Leute die handeln, die kommunizieren und die glauben, Herr dieser kommunikativen Handlungen zu sein. [...]

  50. Wikimedia Blog » Blog Archive » Wikipedia bequellen: nur mit Leistungsschutzgeld © |  18.06.2012 | 11:49 | permalink  

    [...] Berliner Blogger Michael Seemann (aka @mspro) weist gelegentlich darauf hin, dass “Leaken sozusagen die Standardeinstellung des Netzes” sei. Dass diese These einige Plausibilität für sich beanspruchen kann, bewies sich einmal mehr [...]

  51. Hybr1s » Blog Archive » Etwas Privates |  15.08.2012 | 12:20 | permalink  

    [...] Punkte stammen aus disem Artikel von mspro, wo er sie genauer ausführt. Zudem sammelt er Material zu seiner Kontrollverlust-These [...]

  52. Vom Kontrollverlust zur Filtersouveränität — Carta | Philosophy of the body | Scoop.it |  06.11.2012 | 12:37 | permalink  

    [...] Die Allgegenwart von Aufzeichnungsgeräten verbindet die digitale Welt immer enger mit der analogen. Ist man Teil der Welt, wird man Teil des Internets sein.  [...]

  53. Kontrollverlust und Filtersouveränität | Schule und Social Media |  18.12.2012 | 11:23 | permalink  

    [...] Diese Einsicht führt Seemann dazu, den Kontrollverlust zu akzeptieren und mit einem ethischen Konzept der Filtersouveränität zu koppeln: [...]

  54. Etwas Privates | Hybr1s |  12.02.2013 | 00:51 | permalink  

    [...] Punkte stammen aus disem Artikel von mspro, wo er sie genauer ausführt. Zudem sammelt er Material zu seiner Kontrollverlust-These [...]

Sie können Ihren Kommentar mit HTML-Befehlen formatieren.