Suchmaschinenbetreibern wird seit Jahren vorgeworfen, rassistische Algorithmen zu verwenden. Versuchen Sie es selbst: Wer bei Google oder Bing als Suchbegriff „Hände“ eingibt, bekommt fast ausschließlich weiße Hände präsentiert. Ähnliches passiert, wenn man „babies“ eingibt: Es lachen einem nur weiße Säuglinge entgegen! Die Grafikdesignerin Johanna Burai geründete deshalb 2015 sogar ein Projekt, das Sie World White Web nannte, wo sie Handfotos von Menschen dunkler Hautfarbe sammelte und die Besucher aufforderte, diese möglich weitläufig zu teilen, um damit das so genannte Ranking der Suchmaschinen zu beeinflussen. Über Zeit, so argumentierte sie, würden die Algorithmen anfangen dunkle Hände als „normal“ einzustufen und entsprechend weiter oben in den Ergebnissen zu platzieren.
Google wehrt sich und verweist darauf, dass die Suchergebnisse lediglich die Häufigkeit reflektieren, mit der bestimmte Bildtypen im Web zu finden sind und wie sie beschrieben werden. Es habe nicht mit „Werten“ zu tun. Im Klartext: Weiße Hände und weiße Babies werden meist in einem positiven Kontext beschrieben (süß, goldig), Farbige viel häufiger in einem negativen (Flüchtlingsnot, Naturkatastrophen).
Solche Beispiele sind Legion und zeigen auf, wo die Grenzen heutiger neuronaler KI-Systeme liegen. Bei Google Translate wird der doktor konsequent zum männlichen Arzt, Pflegeberufe hingegen werden stets Frauen zugeschrieben. Dass es auch Kranken pfleger gibt, scheint das Programm nicht zu wissen. „Schlecht bezahlte Jobs werden Frauen zugeordnet, gut bezahlte Männern“, schrieb Eva Wolfangel in der Zeit. „Damit reproduzieren die Computer ein perfektes Abbild unserer Gesellschaft – mit all ihren Ungleichheiten. Nun stelle man sich vor, eine solche Software helfe zum Beispiel in einer Personalabteilung bei der Vorauswahl von Bewerbern für ein Vorstellungsgespräch. Was, wenn die künstliche Intelligenz alle Bewerberinnen für eine freie Arztstelle von vornherein aussortiert?“
Deshalb ist die Suche nach alternativen KI-Systemen in vollem Gang. Informatiker der Universität Tübingen haben 2017 eine neue Form von KI entwickelt, die sie Brain Control nennen und die bewusst auf den Einsatz neuronaler Netze verzichtet. Dabei handelt es sich nicht nur um ein Programm, sondern auch um eine Art von 2D-Computerspiel: Man kommuniziert mit virtuellen Figuren in menschlicher Sprache, erklärt ihnen Dinge, gibt Anweisungen oder motiviert sie, Situationen selbst zu erkunden und Ziele zu erreichen, beispielsweise mehr Energie zu bekommen. Ausgehend von diesen Motivationen lernen die Figuren durch Interaktionen, wie ihre Umwelt funktioniert und wie sie diese beeinflussen können. Die Figuren agieren selbstständig, so dass nach und nach auch immer weniger vorgegeben werden muss. Computer sind also durchaus lernfähig! Ob man das auch von den Menschen sagen kann?