Facebook und die Gedankenfreiheit

So, glaubt Ihr wirklich?

…aber Facebook kann sie erraten!

Also doch: Orwell hatte Recht! Sein Albtraum von der „Gedankenkontrolle“ ist Wirklichkeit geworden, die bösen Macher von Facebook sind dabei, unsere Gehirne umzuprogrammieren. Google kontrolliert, was wir denken dürfen. O tempora, o mores!

Der Skandal um manipulierte News-Feeds im Rahmen eines sozialpsychologischen Experiments auf Facebook (die so genannte „Emotional Contagion Study„) haben den Kulturpessimisten reichlich neue Nahrung gegeben. Schade, dass Frank Schirrmacher das nicht mehr erleben durfte!

Aber worum geht es hier eigentlich? Wie jetzt herausgekommen ist haben sich die Wissenschaftler  Jeffrey Hancock and Jamie Guillory von der angesehenen   Cornell University zusammengetan um zu prüfen, ob das Lesen von negative Meldungen Einfluss auf das seelische Befinden von Menschen hat, also ob wir traurig werden, weil wir traurige Nachrichten vorgesetzt bekommen und umgekehrt, ob sich unsere Laune durch die Lektüre guter Nachrichten heben lässt. Dazu wurden die dargestellten Meldungen in den Timelines von rund 700.000 der 1,3 Milliarden Facebook-Nutzern manipuliert, und zwar ohne deren Wissen. Danach analysierten die Forscher die Posts der Betroffenen mit Hilfe von Software, die in der Lage sein soll, aus deren Wortwahl beim Schreiben Rückschlüsse auf ihre Stimmungslage zu ziehen.

 

Ich muss zugeben: Meine erste spontane Reaktion, als ich das las, war: Wow: eine Software, die lesen kann! Nicht nur lesen, sondern verstehen, wie mir beim Schreiben zumute war. Wie geil ist das? Aber mit der Reaktion war ich wohl ziemlich alleine auf weiter Flur, zumindest diesseits des Atlantiks. Die deutsche Blogosphäre füllte sich mit Wutposts, auf Twitter wurde von Empörung geglüht. Politiker aller Parteien, von denen die meisten vermutlich gar keine Facebookseite haben, meldeten sich zu Wort, und in Irland überlegt angeblich die für Facebook zuständige Datenschutzbehörde (die haben ihren europäischen Firmensitz in Dublin) das Einleiten einer Untersuchung.

Sogar in meiner Heimat, den USA, wo man sonst relativ gelassen mit Fragen der Online-Spionage umgeht (gerade hat laut New York Times die obersten Datenschutzbehörde Amerikas, die Privacy and Civil Liberties Oversight Board, das Abhören von Ausländern durch die NSA als rechtlich absolut in Ordnung durchgewunken), regte sich Unmut in der Gestalt meines alten, neuerdings aber zum Rufer in der digitalen Wüste gewandelten Freundes Jaron Lanier, der sich Sorgen macht, dass man uns durch das Füttern mit schlechten Nachrichten in den kollektiven Selbstmord treiben könnte. Immerhin lassen sich, wie er schreibt, 60 Prozent aller Suizidfälle auf labile Stimmungslagen zurückführen. Was die interessante Frage aufwirft, ob womöglich das große Zeitungssterben darauf zurück zu führen ist, dass immer mehr Leser nach der jahrelangen einseitigen Befütterung mit schlechten Nachrichten (altes Journalistenmotto: „Bad news is good news“) beschließen, Schluss zu machen und sich vor die nächste U-Bahn zu werfen.

Der gute Jaron vergleicht Facebook mit einer Pharmafirma und weist darauf hin, dass die niemals experimentelle Drogen an Versuchspersonen verabreichen würden, ohne vorher ihre Zustimmung einzuholen. Na ja, wenn Nachrichten tatsächlich, was die Facebook-Forscher ja erst noch herausfinden wollen, tatsächlich die Wirkung von Psychopharmaka haben, dann ist der Vergleich vielleicht sogar erlaubt. Aber das Blöde ist nur, dass die 700.000 Testpersonen, genau wie jeder andere, der Facebook verwendet, seine Zustimmung ja längst gegeben hat, indem er bei der Anmeldung seinen Haken ins Kästchen neben den AGBs geklickt hat. Nein, natürlich haben sie sie nicht gelesen, das tut niemand. Aber ist Facebook schuld, dass wir alle dämlich sind? Natürlich nicht!

Und ja, es stimmt, dass seriöse Wissenschaftler ihren Versuchspersonen einen Wisch vorlegen, indem sie über mögliche Risiken und Nebenwirkungen gewarnt werden. Sheryl Sandberg, die CEO von Facebook, hat sich auch schon dafür entschuldigt und eine Überprüfung der internen Prozesse versprochen. „We clearly communicated very badly about this“, sagte sie in einem Interview, um allerdings gleich im nächsten Satz darauf hinzuweisen, dass ihrer Meinung nach alles ganz legal gewesen sei. Hey, shit happens, okay?

Tatsächlich fragt man sich, ob ein solches Experiment überhaupt funktionieren würde, wenn man die Probanden vorher informiert, dass sie beim Schreiben beobachtet werden? Und alle Beteiligen schwören Stein und Bein, dass die Daten durchgehend anonymisiert gewesen sind, also keiner zu Schaden gekommen sein kann. Wozu also überhaupt die ganze Aufregung?

Man kann übrigens auch mit Mozart einstimmen in die alte Arie: „Cosi fan tutte“. Tatsächlich machen es alle so, denn darum geht es ja beim ganzen Thema Big Data im Social Web. Das Internet ist das heißeste neue Experimentalfeld der Welt für Anthropologen, Sozialwissenschaftler und Verhaltensforscher, ganz zu schweigen von Webdesignern und Online-Vermarktern. Google hat einmal 41 verschiedene Blautöne getestet, um herauszufinden, auf welches Bleu wir am besten reagieren. A/B-Tests gehören zum Standardrepertoire jedes ordentlichen SEM- oder SEO-Fachmanns. Wissenschaftler erhoffen sich vom Studium unseres Online-Verhaltens Erkenntnisse darüber, wie sich Ideen in Gruppen ausbereiten, wie politische Ansichten entstehen und wie (oder warum) sich Menschen verlieben. Es ist ein goldenes Zeitalter für die Sozialwissenschaft – und eines, das durch die neuerliche Causa Facebook droht, in Verruf zu geraten, bevor sie überhaupt so richtig in die Gänge gekommen ist. Oder gleich ausgebremst zu werden.

Facebook hat eine eigene Forschungseinheit geschaffen, die sich “Data Science Team” nennt und deren Mission es ist, “unser Verständnis der menschlichen Psychologie und Kommunikation durch das Studium der größten Begegnungsstätte der Welt zu verändern“. Einige dort durchgeführten Experimente sind nach außen gedrungen, beispielsweise der „Filter Bubble“-Versuch von 2012, an dem die Daten von 250 Millionen Nutzern ausgewertet wurden um herauszufinden ob es stimmt, dass die Leute nur Dinge lesen, die ihre eigenen Vorurteile bestärken, was angeblich nicht der Fall ist; im Gegenteil: Das Internet verbreitert tatsächlich unser aller geistige Horizonte. Und anlässlich der letzten Präsidentschaftswahlen in Amerika bekamen 2010 insgesamt 61 Millionen US-Wahlbürger unterschiedliche Posts auf Facebook zu sehen, die sie ermuntern sollten, zur Wahl zu gehen. Die Probanden waren in drei Testgruppen aufgeteilt, wovon eine als Kontrollgruppe diente, also keine Posts bekam. Herausgekommen sei, so die Facebook-Forscher, dass man mithilfe der richtigen Art von Aufforderung die Wahlbeteiligung tatsächlich signifikant erhöhen kann, aber – und das war die große Überraschung – nicht nur bei den Empfängern selber, sondern auch bei deren Umfeld, also Freunde und Verwandte.

Das sind interessante und wichtige Erkenntnisse, die uns das Studium des Social Web zu liefern vermag, und es wäre grob fahrlässig, wenn wir uns selbst dieser Mittel berauben würden.

Andererseits stecken durchaus ernstzunehmende Risiken in der Möglichkeit, Gedanken zu manipulieren – nicht, dass solche Manipulation irgendwie neu oder auf das Internet beschränkt wäre. Sie ist dort nur sehr viel effektiver als beispielsweise Wahlplakate am Straßenrand oder der bei uns in Österreich übliche Besuch des Kandidaten zu Hause beim Wähler (dieses Jahr bekamen wir von der ÖVP eine Brettljause, von der SPÖ einen Einkaufkorb und von der rechtslastigen FPÖ ein Kochlöffel, alles natürlich mit Werbeaufschriften). Wenn es klar ist, dass man die Wahlbeteiligung per Facebook verbessern kann, werden die Parteien dieses Mittel natürlich nutzen, um in ihrer eigenen Klientel zum Urnengang zu rufen. Vielleicht werden sie entgegenlautende Botschaften an die Wähler der anderen Parteien schicken, damit die zu Hause bleiben, wer weiß? Politik ist nun mal ein ziemlich schmutziges Geschäft, ob online oder off.

Was tun, also? Bereits heute wird nach neuen, strengeren Gesetzen gerufen, um die Gedankenmanipulation per Internet zu verbieten oder wenigstens zu reglementieren. Aber das wird die Forscher von Facebook & Co. doch allerhöchstens in den Untergrund treiben. Wollen wir das? Ich denke, es ist besser, den Feind und seine Möglichkeiten zu kennen: Dann weiß ich wenigstens, dass ich manipuliert werde und wie, und ich kann mich beizeiten dagegen wehren.

Ich denke allerdings, dass es nicht schlecht wäre, wenn es in Zukunft AGBs gäbe, die man tatsächlich lesen und verstehen kann. Darüber habe in unlängst mit meinem Freund Dieter Kempf, dem Chef der DATEV und Vorsitzender der BITKOM, mal abends geplaudert, denn das ist auch ihm ein Herzensanliegen, und wir hatten ein paar Ideen, die uns gut gefielen, zum Beispiel die wichtigsten Bestandteile der AGB einzeln nacheinander in großer Schrift darzustellen; erst, wenn man sich durch die Hauptpunkte geklickt hat, wird man weitergeleitet. Ja, die Idee braucht noch Arbeit, aber es ist ein erster Ansatz, oder?

Am Ende aber wird es wohl auf eine Art freiwillige Selbstverpflichtung der Anbieter im Social Web herauslaufen, aber dazu ist die Bereitschaft schon heute zu erkennen. Ja, Facebook behauptet nach wie vor, nichts Unrechtes getan zu haben, aber sie haben sich immerhin entschuldigt, was auf ein latentes schlechtes Gewissen schließen lässt. Wir müssen also den moralisch-ethischen Druck auf die Brüder erhöhen. Wenn wir wissen wollen, wie das geht, dann brauchen wir nur beim alten Friedrich Schiller und seinem „Don Carlos“ nachschlagen. So, und jetzt alle:

„Sire, geben Sie Gedankenfreiheit!“

Dieser Beitrag wurde unter Das digitale Ich, Digitale Aufklärung, Internet & Co., IT Security abgelegt und mit , , , , , , , , , , , , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

Kommentar verfassen