Ein Algorithus für das Vergessen

Das war doch noch was...

Das war doch noch was…

Das Urteil des höchsten europäischen Gerichts, des EuGH, gegen Google im Streit um das Recht aus Vergessen ist ein Skandal, kein Zweifel. Die Oberrichter haben ganz offensichtlich nicht zu Ende gedacht, was sie da angezettelt haben, denn jetzt kann ja – nicht nur – theoretisch jedermann bei Google den Antrag stellen, Fundstellen zu löschen, die irgendwie mit ihm zu tun haben. Dabei ist es ganz egal, ob dieser Antrag in irgendeiner Form berechtigt ist, also ob tatsächlich irgendein Persönlichkeitsrecht verletzt wird. Es genügt zu sagen: „Ich will das nicht“.

Wieder theoretisch wird Google in jedem einzelnen Fall prüfen, ob dieser Wunsch nach Löschen einer Information gerechtfertigt ist oder nicht. Google müsste dazu eine Heerschar von Prüfern anheuern, die jeden Tag nichts anderes tun, als Millionen von Anträgen anzuschauen, die Hintergründe (mit Hilfe der eigenen Suchmaschine) zu recherchieren und anschließend zu entscheiden: Löschen oder Nichtlöschen. Und wenn nicht? Dann kann der Löschungswütige ja – ebenfalls theoretisch – die Gerichte anrufen und versuchen, Google zu zwingen, es doch zu tun.

Was wird Google, das ja am Ende des Tages ein gewinnorientiertes Unternehmen ist, stattdessen tun? Klar: Sie werden einfach jedem Löschungsantrag entsprechen, und zwar ungeprüft! Alles andere wäre wirtschaftlicher Wahnsinn. Und wo, bitteschön, bleibt da die Wahrheit? Darf einfach jeder nach Gutdünken die Geschichte umschreiben?

Ich saß gestern Abend nach der IT-Sicherheotskonferenz des TÜV Rheinland in Fürstenfeldbruck, wo ich als Moderator tätig bin, mit Odad Ilam vom israelischen Cyber Gym zusammen, einem Trainingslager für Cyberwar-Soldaten, und er fand einen ziemlich drastischen Vergleich. „Stelle dir vor, Hitler wäre noch am Leben. Er hat irgendwo in Südamerika jahrelang unerkannt überlebt, und jetzt stellt er bei Google den Antrag, alle Einträge über die Judenvernichtung im Dritten Reich zu löschen. Warum? Weil er sich davon gestört fühlt, dass sowas öffentlich bekannt sein soll?“ Nun ja, wenn Google ungeprüft löscht, dann wäre der Holocaust auf einmal weg. Wollen wir das?

Beim Mittagessen saß ich dann zusammen mit meinem alten Freund Phil Zimmermann zusammen. Phil ist der Erfinder von PGP, das verbreitetste Verschlüsselungsprogramm für E-Mail auf der Welt. Ich habe ein paar bleifreie Weißbier getrunken, er ein Mango-Schorle. Das, was wir uns ausgedacht haben, war also keineswegs vom Alkohol beflügelt. Und trotzdem klingt es zunächst ein bisschen danach, als hätten wir ein paar Flaschen Rotwein intus gehabt.

Wie funktioniert das Vergessen beim Menschen, haben wir uns gefragt. Und wir waren uns einig: Unser biologisches neuronales Netzwerk ordnet Informationen eine bestimmte Wichtigkeit zu, abhängig von einer ganzen Reihe von Faktoren. Manchmal kommt unser Neuronennetz durcheinander, zum Beispiel wenn es den Ort, an dem ich meinen Autoschlüssel liegengelassen habe, als unwichtig einordnet und sofort in den mentalen Mülleimer des Vergessens wirft. Aber meisten sind wir in der Lage, und Ereignisse und Fakten zu merken, die für uns wirklich wichtig sind. Unwichtiges dagegen hat eine kürzere Halbwertzeit und wird deshalb irgendwann einfach aussortiert.

Wie wäre es, fragten wir uns, wenn wir einen intelligenten Algorithmus entwickeln würden, der auf Google gespeicherte Daten gewichtet und die Entscheidung über Löschen oder Nichtlöschen davon anhängig machten würde? Der Algorithmus besäße dann das, was Phil als „human common sense“ beschrieb: Große, wichtige Ereignisse bekämen eine hohe Amplitude zugeteilt, triviale Fakten eine niedrige. Entsprechend eines solchen „relevance score“ könnte man dem Fakt eine bestimmte Halbwertszeit zuweisen. Nach einer gewissen Zeit würden als unwichtig eingestufte Informationen sozusagen verwesen und letztendlich aus der Datenbank verschwinden, als wichtig eingestufte Informationen bekämen eine längere Ablauffrist oder würden niemals gelöscht.

Als Beispiel fielen uns beim Mittagessen ein: Informationen über einen Massenmörder oder Kinderschänder dürfen niemals gelöscht werden, die Informationen über einen Strafzettel, den ein Führerscheinanfänger in seiner jugendlichen Dummheit bekam, sollten ihn nicht sein ganzes Leben lang verfolgen können.

Phil fand eine interessante Parallele zu dem gesellschaftlichen Phänomen des Vergebens: Die Fähigkeit, etwas zu vergeben, ist seiner Meinung nach unmittelbar mit der zeitlichen Distanz zum Geschehen verbunden: Alte Veteranen verbrüdern sich nach Jahrzehnten mit ihren Gegnern, die sie seinerzeit nach Kräften versucht haben umzubringen, und vice vera.

Es gibt noch ein paar Details an unserer Idee zu klären. Zum Beispiel: Wer legt fest, nach welchem Scoring-System Informationen gewichtet und bewertet werden? Wessen Vorstellung von „common sense“ dient als Richtlinie? Wer kann Einspruch einlegen, und was geschieht dann? Aber das sind nur Details. Für die meisten der zu erwartenden Millionenflut von Löscheinträgen, denen sich Google demnächst gegenübersehen wird, dürfte ein recht einfach gestrickter Algorithmus genügen. Phils und mein gesunder Menschenverstand sagt uns, das schon mehr zu eine Recht auf Vergessen gehören muss als eine simple Befindlichkeit: Nur weil mich eine Information, die wahr ist, stört habe ich noch lange nicht das Recht, es löschen zu lassen. Da muss ich schon die sehr viel härtere Prüfungsstufe bestehe, nämlich: Bin ich durch die Veröffentlichung dieser Information in meiner Menschenwürde beeinträchtigt?

Wie gießt man Menschenwürde in einen Algorithmus? Ich denke, bis wir diese Frage abschließend beantworten können, müssen wir als Gesellschaft noch sehr viele Flaschen Rotwein miteinander leeren. Aber immerhin: Es ist ein Anfang!

Dieser Beitrag wurde unter Digitale Aufklärung, Internet & Co., IT Security abgelegt und mit , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

Kommentar verfassen