Technologie ist das Problem – aber ist es auch die Lösung?

Foto: Christopher Dombres/Flickr

Wenn GAFA & Co. die ganze Macht ihrer Entwicklungsabteilungen darauf konzentrierten – wären sie in der Lage, den ganzen Rattenschwanz an die Probleme, die sie uns beschert haben – Cyber-Mobbing, Kinderporno, Hass-Sprech, Fake News – mit Hilfe entsprechender Algorithmen und künstlicher Intelligenz zu lösen? Eigentlich müsste sich alles, was anstößig, unmoralisch, kriminell oder politisch unkorrekt ist, mit einem Mausklick verschwinden lassen können, oder?

Doch leider ist die Sache aber nicht so einfach. Erstens mal müssten wir uns einig werden, was anstößig oder inkorrekt ist. Andere Länder, andere Sitten, heißt es ja. Wessen Moralbegriff soll also beim Filtern von Online-Inhalten gelten?

Als Microsoft seine allererste Suchmaschine namens MSN Search 1998 einführte, reiste der damalige CEO Steve Balmer nach München zu einer Pressekonferenz, wo er den anwesenden Journalisten versicherte, dass Microsoft selbstverständlich keine anstößigen Suchergebnisse liefern würde. Es entspann sich eine interessante kulturelle Diskussion darüber, wie unterschiedlich man „anstößig“ dies- und jenseits des Atlantik definiere.  „Nacktheit und Sex“, meinte Balmer. „Das, was bei Euch in Deutschland im Spätabendprogramm läuft, würde in Amerika einen Polizeieinsatz verursachen“, meinte er. Gewaltszenen, gegen die in Deutschland vermutlich die Staatsanwaltschaft eingreifen würden, seien dagegen in Amerika gang und gäbe. Zum Schluss musste Balmer Farbe bekennen: Ein Journalist fragte, welche Maßstäbe bei MSN jetzt zu gelten hätten. „Na, unsere, natürlich“, sagte er mit entwaffnender Ehrlichkeit.

Vorstellbar, also, dass die großen Konzerne für jedes Land eigene Filteralgorithmen schreiben müssten. Doch noch ist es nicht so weit. Das liegt ganz einfach daran, dass die künstlich intelligenten Systeme heute doch nicht ganz so schlau sind, wie wir es ihnen alle irgendwie zutrauen.

Kann ein Algorithmus rassistisch sein?

2015 sorgte Google für einen handfesten Skandal im KI-Kreisen, als ein neuronales Bilderkennungssystem des Unternehmens irrtümlich zwei Menschen schwarzer Hautfarbe als Gorillas identifizierte. Könnte es sein, dass Computer und Algorithmen rassistisch sind?

Computerwissenschaftler sprechen in diesem Zusammenhang von „Bias by Data“, also eine Voreingenommenheit, die durch die Auswahl der Daten entsteht. In diesem Fall hatten es die Entwickler schlicht verabsäumt, Googles Bildprogramm auch mit Fotos schwarzer Menschen zu füttern. Der Algorithmus, der bislang nur weißhäutige Menschen zu Gesicht bekommen hatte, entdeckte also ein abweichendes Foto und schloss darauf, dass es sich um ein völlig anderes Wesen handeln müsse. Das einzige, was dem Computer einfiel, war eben der Gorilla.

Sexistische Bots, rassistische KI: „Es ist ein Mythos, dass Algorithmen objektiv sind“, sagte Klaas Bollhoefer, Gründer und Geschäftsführer der Berliner IT-Firma Bird On Mars, die auf Big Data und KI spezialisiert ist, in einem Interview mit dem Branchendienst iBusiness. Maschinen seien ebenso wenig objektiv wie Maschinen. „Dass man Entscheidungsprozesse mittels Automatisierung neutral machen kann, ist eine Legende, von der wir weg müssen“, sagte er.

Fälle, in denen Filtermechanismen versagen, beginnen sich in letzter Zeit zu häufen. Ende 2017 begannen gefälschte Episoden der Kinder-Cartoonserie PAW Patrol auf YouTube Kids aufzutauchen, in denen die gezeichneten Figuren durch Selbstmord starben oder von Dämonen befallen wurden. Andere Videos zeigten Zeichentrickfilme, die auf ihre liegenden Opfer urinierten. Eltern waren entsetzt. Ein YouTube-Sprecher bezeichnete solche Vorfälle als „die extreme Nadel im Heuhaufen“ angesichts von mehr als 400 Stunden Bewegtbild-Content, der pro Stunde auf YouTube hochgeladen wird, gab aber zu, dass der Filter-Algorithmus offensichtlich überfordert gewesen sei.

Viel häufiger allerdings fehlen solche Filtermechanismen ganz. Für Alice Marwick von Data & Society, eine Forschungseinrichtung, die teilweise von Microsoft finanziert wird, sei daran die Kultur des Silicon Valley schuld, die das Thema am liebsten ignorieren würde, es jedenfalls nicht wirklich ernst nehme. „Sie fürchten sich davor, als Internet-Zensoren ans Kreuz genagelt zu werden“, sagt sie. Es herrsche eben ein Geist des „bloß nicht eingreifen“ im Tal der Techies.

Es müsse der Druck auf die Konzernspitzen erhöht werden, glaubt John Adams, der frühere Security-Chef von Twitter, der heute in San Francisco Investoren berät. So könnten Venturekapitalisten von Unternehmen eine „Belästigungs-Strategie“ verlangen, bevor sie sich bereiterklären, Geld locker zu machen. Andere Vorschläge sehen lukrative Boni für Mitarbeiter vor, die Anti-Missbrauch-Software entwickeln – so, wie Unternehmen Prämien für Hacker anbieten, die Löcher in Softwaresystemen aufdecken. Doch das wird nur gehen, wenn die oberste Heeresleitung dahintersteht – und danach sieht es heute nicht aus. Wenn das einzige Ziel ist, viel Geld zu verdienen, sind Investitionen in intelligente Filtersysteme eben nachrangig.

Content Manager – die modernen Sündenfresser

Also müssen Menschen her. Und es ist ein Drecksjob, den sie verrichten müssen. Dabei drängt sich wieder eine Parallele auf zum Wilden Westen: Aus England brachten Einwanderer einen Brauch mit, der dort seit Jahrhunderten praktiziert worden war, nämlich den des Sin Eating. War ein reicher Mann gestorben, wurde er im Wohnzimmer des Herrenhauses aufgebahrt und man legte ihm eine Scheibe Brot auf die Brust. Dann holte man den „Sündenfresser – meist der ärmste Mann im ganzen Dorf – und gab ihm Geld, damit er das Brot nahm und es aß. Anschließend wurde er mit Schimpf und Schande vom Hof gejagt. Der Sündenfresser erfüllte eine wichtige Funktion, denn damit hatte er alle weltlichen Sünden des Verstorbenen in sich aufgenommen, der direkte Weg in den Himmel war damit frei! Während der Brauch in England bis zum Ende des 19. Jahrhunderts ausgestorben war, wurde er in den entlegenen Bergtälern der Appalachen und anderer Gegenden des Westens bis ins 20. Jahrhundert hinein weiterpraktiziert – auch wenn man nur sehr ungern darüber redete.

Die modernen Sündenfresser nennen sich heute „Content Manager“. Im Berliner Stadtteil Charlottenburg sind über Tausend von ihnen als Mitarbeiter der Bertelsmann-Tochter Arvato den ganzen Tag nur damit beschäftigt, Hasskommentare, Kinderpornos und Fake News auf Facebook aufzuspüren und zu löschen. Es ist ein Blick in die tiefsten Abgründe der menschlichen Seele. „Bei der ersten Enthauptung habe ich geheult“, sagte eine Mitarbeiterin einem Reporter des Spiegel. Später habe es ihr nichts mehr ausgemacht. Eine Sozialarbeiterin und ein Psycholog sind rund um die Uhr auf Abruf bereit: Traumbehandlung „wie bei Frontsoldaten“, wie eine Betreuerin verriet.

Die Leute, die hier für Facebook die Drecksarbeit machen, sind in der niedrigsten Lohngruppe eingestuft und haben kaum Kontakt zu den Kollegen in anderen Abteilungen, essen in der Kantine meist von ihnen getrennt. „Wir sind die Müllfahrer des Internets“, sagte ein Löscharbeiter, „man braucht uns – aber man verachtet uns.“

Facebook hat Deutschland offenbar deshalb als Sitz seines größten Löschzentrums ausgesucht, weil hier die Gesetze strenger sind als anderswo. Das noch vom SPD-Justizminister Heiko Maas initiierte Netzwerkdurchsetzungsgesetz gilt als das strengste der Welt. Bestimmte strafbare Inhalte sind vom Plattformbetreiber innerhalb von sieben Tagen zu löschen oder zu sperren, sobald ein Nutzer sich offiziell über den Inhalt beschwert hat. Bei „offensichtlich strafbaren“ Inhalten wie Kinderporno oder Darstellung von Tötungsdelikten beträgt die Frist sogar nur 24 Stunden. Was rechtswidrig ist, wird breit ausgelegt: Es zählen Beleidigung und Verleumdung ebenso dazu wie das strafrechtlich relevante Verbreiten von Falschnachrichten. Ein typischer Fall: Eine Frau aus Nordbayern hatte Anfang 2017 auf Facebook vermeldet, ein 17-jähriges Mädchen sei von einem Asylbewerber in Mühldorf so brutal vergewaltigt worden, dass es notoperiert werden musste. Die Meldung war aber frei erfunden, die Frau wurde wegen Vortäuschens einer Straftat und der Volksverhetzung angezeigt. Obwohl Facebook den Post umgehend löschen ließ, war der Geist bereits aus der Flasche: Binnen 13 Stunden war sie bereits 140 Mal geteilt worden und taucht bis heute immer noch hier und dort im Social Web auf. Fake News ist wie eine Hydra: Wenn man ihr einen Kopf abschlägt, wachsen ihr zwei nach.

Außerdem: Dem einen seine Falschnachricht ist dem anderen seine freie Meinungsäußerung. Als die stellvertretenden Fraktionsvorsitzenden der AfD-Bundestagsfraktion, Beatrix von Storch, im Januar 2018 auf Twitter und Facebook von „barbarischen, muslimischen, gruppenvergewaltigenden Männerhorden“ schrieb, löste das in der Berliner Löschzentrale erbitterten Streit zwischen den Aufpassern aus. Der Fall wurde daraufhin nach Dublin in die Europazentrale eskaliert, wo Anwälte zu Rate gezogen wurde. Am Ende wurde der Post gelöscht und das Konto der AfD-Politikerin vorübergehen gesperrt. Es gab daraufhin wütende Proteste von Rechtsaußen, der AfD-Vorsitzende Alexander Gauland sah die Meinungsfreiheit in Gefahr und sprach vom „Zensurgesetz des Heiko Maas“. Und auch sonst eher liberale Menschenrechtsorganisationen warnten davor, dass die deutsche Löschpraxis autoritäre Staaten inspirieren könnte, es ihnen gleichzutun. Besser wäre es, auf freiwillige Maßnahmen der großen Netzportale zu bauen.

Blöd ist nur: Genau das hatten Maas und Konsorten ja vorher schon probiert. Von Juli 2016 bis Februar 2017 hatte man einen Testlauf gestartet und hinterher zusammengezählt. Es kam heraus, dass Facebook nur 39 Prozent der gemeldeten strafbaren Inhalte entfernt hatte. Bei Twitter war es sogar nur ein Prozent.

Es ist halt wie schon damals im Wilden Westen: Für Ruhe und Ordnung muss eben doch der Sherif sorgen…

Dieser Beitrag wurde unter Allgemein abgelegt und mit , , , , , , , , , , , , , , , , , , , , , , , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.