„Was spricht gegen Robo-Chefs?“

Der Technikjournalist und Blogger Markus Strehlitz („Barrytown“) hat ein Interview mit mir auf Twitter/X veröffentlicht. Das ist schade, denn  wie viele meiner Freunde und Leser bin ich längst nicht mehr auf Twitteraus Protest gegen Elon Musks autokratischen Führungsstil. Deshalb veröffentliche ich das Interview hier, damit alles etwas davon haben.

Herr Cole, Sie haben ein Buch über den Erfolgsfaktor KI für Unternehmen geschrieben. Aber im ersten Kapitel geht es erst mal um die Angst vor der Künstlichen Intelligenz.

Ich erkenne eine tief sitzende Angst vor KI. Daran schuld sind natürlich die Medien weil wir über Jahre hinweg ein so negatives Bild von KI gezeichnet haben. In der Unterhaltungsbranche – zum Beispiel in Filmen – ist der Roboter meistens eine Bedrohung. In den Science-Fiction-Büchern wird schon seit Jahrzehnten ein dunkles Bild gezeichnet, in dem Maschinen die Weltherrschaft anstreben oder sogar übernehmen. In der Wirtschaft ist es der Roboter, der meinen Job will. KI ist für die breite Masse der Menschen außerordentlich negativ besetzt. Das ist schade, weil Manager ja auch ganz normale Menschen sind und infolge dessen diese Angst ihre Entscheidungen beeinflussen kann.

Sie wollen den Leuten diese Angst nehmen, indem Sie zeigen, welche positiven Möglichkeiten die KI bietet?

Ich versuche in meinem Buch zu zeigen, dass KI überall im Unternehmen Nutzen stiften und den Menschen entlasten kann. KI kann dem Menschen zu besseren Entscheidungen verhelfen. Es geht nicht darum, dass der Computer meine Konkurrenz ist, sondern mein Assistent, mein Sidekick. Wir dürfen nur nicht den Fehler machen, dass wir die Entscheidungshoheit aus der Hand geben.

Heißt konkret?

Ein gutes Beispiel ist Watson, IBMs neuronaler Supercomputer. Watson kann zum Beispiel viel bessere und schnellere Krebsdiagnosen erstellen als ein menschlicher Arzt. Aber – und darauf legt IBM großen Wert – er trifft nicht die Entscheidungen über die Therapie. Das macht der Arzt. Dieser wäre jedoch völlig überfordert damit, die gesamte Weltliteratur zu einer ganz bestimmten Krebsart zu durchforsten, um genau für den einen Patienten die absolut beste Therapieform zu finden. Das schafft Watson aber in Sekundenbruchteilen. Man muss das als eine Partnerschaft sehen. Der Computer gibt mir Informationen, damit ich als Mensch eine bessere Entscheidung treffen kann.

Ist nicht schon die Verwendung des Begriffs „Künstliche Intelligenz“ ein Problem? Denn das suggeriert, dass man es tatsächlich mit einem intelligenten System zu tun hat.

Ich habe im Vorwort des Buches geschrieben, dass ich dem Leser reinen Wein einschenken möchte: Es gibt nämlich gar keine künstliche Intelligenz, jedenfalls wenn man Intelligenz als bewusstes Handeln definiert. Eine Maschine kann ja gar nicht intelligent sein, weil sie kein Bewusstsein besitzt.

Künstliche Intelligenz ist auf der einen Seite ein Marketing-Begriff, mit dem Anbieter ihre Produkte verkaufen. Auf der anderen Seite wird damit auch Angst geschürt.

Das ist richtig. Aber so funktionieren Buzzwords eben. KI ist einfach die Fähigkeit einer Maschine, intelligentes menschliches Verhalten nachzuahmen. Die nächste Stufe ist Machine Learning – also wenn Maschinen sich selbstständig Zusammenhänge aus großen Datenmengen erschließen können. Zum Beispiel in der Bilderkennung. Der Algorithmus wird darauf trainiert. Das führt dann zur dritten Stufe – nämlich Deep Learning. Wenn Maschinen sich selbst trainieren, mithilfe neuronaler Netze und riesiger Datenmengen. Diese Systeme können uns in der Regel eher langweilige Tätigkeiten abnehmen, die wir sowieso nicht gerne machen. Ich sehe das positiv. Denn dann habe ich mehr Zeit, um interessante Tätigkeit auszuüben. Das hat aber eine gesellschaftliche Dimension.

Inwiefern?

Es gibt ja Menschen, deren Job zwar langweilig ist – aber es ist eben der Job, von dem sie leben. Mein Lieblingsbeispiel ist die Kassiererin im Supermarkt. Sie macht den ganzen Tag nichts anderes, als Päckchen oder Tuben oder sonstige Dinge über einen Scanner zu ziehen. Jetzt gibt es mittlerweile schon Selfservice-Kassen im Supermarkt. Das heißt aber, dass diese Dame ihren Job verlieren würde. Das Blöde ist: Sie hat nichts anderes gelernt.

Das ist ein Problem.

Richtig. Wir haben das Problem, dass die Menschen in die Arbeitslosigkeit getrieben werden durch KI, weil sie nicht qualifiziert sind, einen höherwertigen Job zu machen. Was machen wir als Gesellschaft, wenn ein ganzes Heer von Menschen langzeitarbeitslos wird? Und auf der anderen Seite suchen wir händeringend nach qualifizierten Leuten.

Wie lässt sich das lösen?

Wir haben hier als Gesellschaft eine Verantwortung. Erst mal, durch Ausbildung die jungen Menschen so zu qualifizieren, dass sie in einer von KI geprägten Arbeitswelt immer noch einer sinnvollen Tätigkeit nachgehen können. Denn in einer solchen Welt werden immer noch wahnsinnig viele Menschen gebraucht. Doch die neuen Jobs verlangen eine andere Form der Qualifikation. Das ist ja auch nicht neu in der Menschheitsgeschichte. Es sind im Laufe der Zeit immer wieder Jobs überflüssig geworden.

Es heißt ja immer, dass der Mensch sich durch Dinge wie Kreativität, Empathie und emotionale Intelligenz von den Maschinen abheben kann. Und deshalb müsse das nun gefördert werden

Das sind natürlich unsere Stärken gegenüber den Maschinen. Und die müssen wir ausnutzen. Wer damit zufrieden ist, eine Tätigkeit auszuüben, die ein Roboter besser kann, dem ist auch nicht mehr zu helfen.

Wo setzt man an in der Ausbildung?

Wir sind auch gefordert, bestimmte Berufe nicht mehr auszubilden. Wenn man weiß, dass es einen bestimmten Job in fünf oder zehn Jahren nicht mehr gibt, warum muten wir den jungen Leuten dann zu, dass sie durch eine Ausbildung gehen müssen? Das ganze Ausbildungssystem muss intelligenter und moderner werden. Vor allem müssen aber die Kids lernen zu lernen. Denn keiner kann heute mehr davon ausgehen, dass er den Job, den er gelernt hat, auch sein ganzes Leben lang ausüben wird. Im Gegenteil. Man muss damit rechnen, dass man in seinem Leben mehrmals wechseln und sich jedes Mal neu qualifizieren muss.

Was passiert mit denjenigen, die dabei nicht mithalten können?

Am Ende des Tages wird es Menschen geben, die einfach nicht beschäftigbar sind. Und ich denke, wir müssen dies als Gesellschaft ähnlich behandeln wie eine Behinderung. Auch für geistig Behinderte schaffen wir Hilfsangebote. Das ist eine gesellschaftliche Verantwortung. Und ich sehe noch nicht, dass dieser Verantwortung nachgegangen wird.

Wenn man das so formuliert, wird das die Angst vor der KI aber nicht reduzieren.

Deswegen muss man vorsichtig sein mit diesem Bild. Aber es wird in diese Richtung gehen. Grundsätzlich müssen wir die Lust am Lernen vergrößern. Wir müssen als Menschen unsere Stärken ausspielen. Kreativität, Empathie – solche Dinge müssen im Vordergrund stehen. Am Ende des Tages werden wir dadurch bessere Menschen, denn das sind ja unsere urmenschlichsten Eigenschaften. Darauf sollten wir uns konzentrieren.

Eine Sache, die KI auch unheimlich macht, ist ja die Black-Box-Eigenschaft. Man weiß nicht, wie KI-Systeme zu ihren Ergebnissen kommen.

Gerd Leonhard, ein guter Freund von mir, hat in seinem Buch „Technology vs Humanity“ auf dieses Problem hingewiesen: Da wir unseren Maschinen immer komplexere Entscheidungen überlassen, werden wir irgendwann auch nicht mehr in der Lage sein nachzuvollziehen, wie die Maschinen zu diesen Entscheidungen kommen. Es besteht die Gefahr, dass wir einfach aufgeben. Also, dass wir sagen: Ich habe zwar keine Ahnung warum, aber es ist gut so. Wenn wir Menschen die Entscheidungshoheit an die Maschinen abgeben, weil es bequemer ist, dann haben wir einen wichtigen Teil unseres Menschseins aufgegeben.

Aber wie kann man gegensteuern?

Wir müssen als Gesellschaft stets dafür sorgen, dass wir noch die Kontrolle behalten. Wo Entscheidungen getroffen werden, muss ein Mensch immer noch in der Lage sein, diese zu verstehen, zu überprüfen und notfalls auch wieder umzukehren. Beispiel smarte Fabrik – natürlich werden die Maschinen sich dort selbst steuern. Aber es wird trotzdem noch Menschen in der Fabrik geben. Nur tragen die keinen blauen, sondern einen weißen Kittel, weil sie Kontrollfunkionen haben. Sie müssen aktiv werden, wenn eine Maschine kaputt geht. Irgendjemand muss die ja reparieren. Das sind alles höherwertige Aufgaben, für die die Menschen unersetzlich sind, und zwar auf Dauer.

Automatisierung mithilfe von KI ist nicht mehr nur auf das Fertigungsumfeld beschränkt. In ihrem Buch beschäftigen Sie sich auch mit der Automatisierung der Wissensarbeit.

Wir werden ganz viele und durchgreifende Ansätze der Automatisierung in der Wissensarbeit erleben – im Vertrieb, im Controlling und anderswo. Was spricht etwa gegen Robo-Chefs? Es gibt ja bereits solche Anwendungen. Gerade in den USA sind sie relativ häufig. Das Stichwort ist RPA – Robot Process Automation. Dabei werden Büroprozesse automatisiert – zumindest bis zu einem gewissen Grad. Man hat Mitarbeiter befragt, die einem Roboter berichten – zum Beispiel im Personalwesen – wie zufrieden sie mit ihrem Boss sind. Das Ergebnis: Sie sind sehr zufrieden. Ein Robo-Boss ist in aller Regel ein besserer Chef. Er hat keine Favoriten, er ist pünktlich, die Meetings dauern nicht mehr so lange. In der Wissensarbeit werden die Veränderungen durch die Automatisierung mindestens so schwerwiegend sein wie in der Fertigung.

Ich habe die Passage mit dem Robo-Chef im Buch gelesen und mich gefragt: Meint er das ernst? Zur Personalführung gehören ja auch weiche Faktoren. In einer Führungsposition muss man auch auf den Mitarbeiter als Menschen eingehen. Kann das ein System leisten?

Im Prinzip läuft es darauf hinaus, dass der menschliche Chef von Routine-Arbeit befreit wird. Beispiel Personalwesen: Es gibt wahnsinnig viele Tätigkeiten eines Personalers, die sich stets wiederholen, die ein Roboter genauso gut und wahrscheinlich schneller erledigen kann. Dadurch hat man dann als Personaler mehr Zeit, sich um den Mitarbeiter zu kümmern und auf seine Bedürfnisse einzugehen. Im Grunde wird man ein besserer Personaler, wenn man Teile der Personalarbeit automatisiert.

Muss man denn in den deutschen Unternehmen für die KI werben, weil es auch dort Bedenken gibt, solche Technologien einzusetzen?

Ich hatte gerade ein Interview mit Gunther Kegel, Chef von Pepperl & Fuchs und Präsident des Zentralverbands der Elektrotechnik- und Elektronikindustrie. Er sagt, die deutschen Unternehmen lägen, was diese Dinge angeht, weit zurück. Wir haben keine Unternehmen, die ähnlich weit sind wie die GAFAs – also Google, Apple, Facebook und Amazon. Wir haben eine starke Historie in Maschinenbau und Industriefertigung. Und wenn wir die entsprechend intelligenter machen können, dann können wir darüber vielleicht schon unseren Vorsprung als Exportnation halten. Aber bei der Nutzung von Daten wird es problematisch.

Warum?

Jedes Unternehmen sitzt auf einem Berg von Daten. Und jeden Tag kommen neue hinzu. Die Bereitschaft, diese Daten als Teil des Firmenvermögens zu betrachten und damit etwas zu tun, ist in Deutschland aber leider nicht sehr ausgeprägt. Da fehlt das Verständnis an der Spitze. Und es fehlen die Leute, die in der Lage sind, aus diesen Daten Erkenntnisse und Mehrwert zu schaffen. Bitkom-Chef Achim Berg hat ja darauf hingewiesen, dass der Mangel an qualifizierten KI-Fachleuten in Deutschland ein sehr starker Bremsfaktor ist. Selbst, wenn ein Unternehmen etwas machen möchte, fragt es sich: Woher bekomme ich die Leute?

Also liegt es vor allem am Fachkräftemangel, wenn in Deutschland in Sachen KI wenig vorangeht?

Nein, die Bremser sitzen vor allem in den Chefetagen. Sie schieben zwar solche Dinge wie Personalmangel vor. Aber wenn sie wirklich wollten, könnten sie auch.

Immerhin gibt es ja eine deutsche KI-Strategie.

Ob am Ende des Tages ein Land wie Deutschland mit einer nationalen KI-Strategie etwas ausrichten kann, wage ich zu bezweifeln. Angesichts des KI-Nationalismus, der im Augenblick vor allem in den USA und China zu beobachten ist, hätte allenfalls eine Initiative auf Europa-Ebene genügend Gewicht.

Der Technikjournalist Markus Strehlitz hat ein Interview mit mir auf Twitter/X veröffentlicht. Da ich nicht mehr bei Twitter bin, so wie viele meiner Freunde und Leser, veröffentliche ich das Interview hier, damit alles etwas davon haben.

Was meinen Sie mit KI-Nationalismus?

Die USA und China versuchen, Schranken im Cyberspace zu errichten und ihre Daten als nationalen Schatz zu hüten. Ich bin aufgewachsen in den frühen Tagen des Internets mit dem Satz: „Information wants to be free“. Das kann man unterschiedlich übersetzen. Es kann heißen: Information will umsonst sein. Aber die andere Übersetzung lautet: Information will frei sein – im Sinne von frei fließen. Gerade KI setzt voraus, dass Informationen ausgetauscht werden können, und zwar weltweit. Wenn wir jetzt den Fehler machen, in regionale oder nationale Abschottungsstrategien zu verfallen, dann werden wir das zarte Pflänzchen KI abwürgen. Das Mindeste wäre, dass Deutschland sich zum Vorreiter einer europäischen KI-Strategie machen würde. Nur dann ist diese auch relevant. Immerhin ist Europa der zweitgrößte Markt der Welt. Wir haben genug Gewicht, um unsere Vorstellungen gegenüber USA und China durchzusetzen – aber nur wenn wir uns einig sind.

 

 

 

 

 

Dieser Beitrag wurde unter Allgemein veröffentlicht. Setze ein Lesezeichen auf den Permalink.

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.