Fünf kluge Köpfe und ein armer Autor

Ich habe einen neuen Gastautoren für mein neues Buch, Wild Wild Web, gewonnen: Gerd Leonhard schreibt einen Beitrag zum Thema Technologie kennt keine Ethik. Das wird eine illustre Runde, die sich da zur Verfügung gestellt hat:

Prof. Dieter Kempf, Chef des BDI, der die Frage stellt, ob Digitale Ethik eine Frage der Umgangsformen in sozialen Netzen ist,

Dr. Heinrich Arnold, der sich Gedanken macht über Europas Gegenentwurf zu USA und China in der Digitalisierung,

Thomas Sattelberger („Nein, meine Klappe halt ich nicht!“), FDP-MbB und APO-Kollegen in den 68erb, später dann Vorstand von Daimler, Conti und Telekom, über die Frage Hat Deutschland eine digitale Zukunft?, und

Prof. Heinz Kurz, Grazer Wirtschaftsprofessor und Mitbegründer der Schumpeter-Gesellschaft, über Macht im Zeitalter von GAFA & Co.

Jeder von ihnen meldet sich am Ende eines von mir verfassten Kapitels zu Wort, ergänzt oder widerspricht, trägt aber auf jeden Fall dazu bei, das dieses Buch dem selbstgestellten Anspruch gerecht wird, nämlich die Frage zu beantworten: „Was die Geschichte des Wilden Westens uns über die Zukunft der Digitale Gesellschaft sagt.“

Ich fühle mich als kleiner Autor jedenfalls geradezu überwältigt von so viel geballter Kompetenz…

Ich freue mich schon auf die vielen Diskussionen und auf das Buch, das im Oktober zur Frankfurter Buchmesse erscheint. Vorbestellen kann man es jetzt schon hier bei Amazon.

Exklusiv für Leser des Cole-Blogs hier schon mal vorab Gerds Gedanken zum Thema: 

Technologie kennt keine Ethik – aber ohne Ethik gibt es keine Gesellschaft

Von Gerd Leonhard*

Die nächsten 20 Jahre werden mehr Veränderung bringen als die vergangenen 300 – und das ist eine vorsichtige Schätzung!

Wenn Sie mir nicht glauben, dann denken Sie daran, dass wir gerade an einer kritischen Schwelle stehen – eine, die früher absolut undenkbar gewesen wäre. Technologie ist nicht mehr länger nur ein Werkzeug. Sie wird zu einer eigenständischen kreativen Kraft – zur denkenden Maschine!

Wenn intelligente Werkzeuge immer mehr Routineaufgaben für uns erledigen sollen, werden wir sie trainieren müssen, sie ausbilden, sie mit uns verbinden. Damit werden sie im Endeffekt zu digitalen Kopien unserer Selbst, in die Cloud augelagerte Klons unseres Wissens und vielleicht auch einige unserer urmenschlichen Eigenschaften. Das wird uns wiederum verändern und unsere Sicht darauf, wer und was wir sind, was wir werden können, und was Maschinen sind. Und das alles ist nur der Anfang.

Stellen Sie sich, wenn Sie es können, folgende Dinge vor:

  • Nanobots in unserer Blutbahn, die beispielsweise Cholesterinspiegel messen und notfalls justieren.
  • Gadgets, die aussehen wie ganz normale Brillen oder Kontaktlinsen und die uns über Augmented Virtual oder Mixed Reality jederzeit und überall Zugang  zum gesamten Wissen der Welt gestatten.
  • Geräte, so genannte CBIs (Computer-Brain-Interfaces), die unseren Neokortex direkt mit dem Internet verbinden und  Gedanken in Handlungen umwandeln – und alles, was wir denken, natürlich auch aufzeichnen.
  • Digitale Assistenten, zu denen wir tiefe emotionale Beziehungen entwickeln werden, weil sie so echt, so menschlich auf uns wirken.

Nichts davon ist so weit weg wie Sie vielleicht denken. Die die sozialen, kulturellen, menschlichen und ethischen Auswirkungen werden überwältigend sein. Wenn wir nicht heute schon das Rüstzeug entwickeln, um diesen Herausforderungen zu begegnen, werden wir dazu später außerstande sein.

Wie definiert man Digital Ethik?

Bevor wir uns weiter mit der Frage beschäftigen, warum technologische Ethik in der Zukunft so entscheidend sein wird, müssen wir zuerst versuchen, Ethik überhaupt zu definieren. Um den früheren amerikanischen Obersten Verfassungsrichter Potter Stewart zu zitieren, können wir folgende Arbeitshypothese aufstellen:

“Ethik heißt, den Unterschied zu kennen zwischen dem, was machbar ist und dem, was richtig ist.”

Wir stehen heute am Ausgangspunkt einer exponentiellen Entwicklung. Ab jetzt wird der Wandel nicht mehr langsam und gemütlich, sondern schnell und sturzartig über uns hereinbrechen. Das gilt für fast alle Bereiche, in denen Wissenschaft und Technologie voranschreitet, ob KI oder Quantenphysik, Nano- oder Biotechnologie, Cloud Computing, Solarenergie, 3D-Druck, selbstfahrende Fahrzeuge und mit Sicherheit im Internet of Things (IoT) und Industrie 4.0.

Technologie ist natürlich moralisch völlig wertfrei – jedenfalls bis zu dem Moment, wo wir sie anwenden.

Stellen wir uns eine Welt in zehn Jahren vor, die 50- bis 100-mal weiterentwickelt sein wird als unsere heutige; eine Welt, in der längst aus Science Fiction Science Fact geworden ist. In dieser Welt wird sprichwörtlich jeder mit jedem und alles mit allem verbunden sein. Alles wird ständig beobachtet, aufgezeichnet, gemessen und verfolgt werden. 80 Prozent der bis dahin zehn Milliarden Erdenbewohner werden in Hochgeschwindigkeit miteinander verbunden sein mittels spottbilliger Endgeräte, Wearables und digitaler Assistenten und Roboter, mit denen wir so kommunizieren können werden wie mit einem guten Freund. Jetzt geben Sie noch eine Prise Gentechnik hinzu und lassen Sie die Konvergenz von Technologie und Biologie Fortschritte machen, dann ist wirklich alles möglich!

Die Fähigkeit, exponentiell zu denken, wird deshalb kritisch sein, wenn wir die Chancen nutzen und gleichzeitig die möglichen ethischen Konsequenzen und moralischen Abgründe absehen und adressieren wollen, die sich daraus ergeben werden. Ohne diese Fähigkeit wird der ungebremste und potenziell sozialschädliche Fortschritt zunehmend toxisch werden – ein Desaster, auf das wir sehenden Auges zusteuern.

Wie wär’s mit einem Ethik-Upgrade?

Am Ende bedeutet das den Beginn einer total neuen Ära in der Technologieentwicklung. Irgendwann im Lauf der nächsten fünf bis zehn Jahren wird es nicht mehr um die Frage der technischen Machbarkeit, um Kosten oder Zeitaufwand gehen, sondern um die Frage: Warum tun wir das eigentlich? Es wird um Kontext gehen, um Absichten, Werte und Ziele. Wir werden uns fragen müssen: Wer sitzt hier am Steuer, wer beaufsichtigt das Ganze und wer macht es sicher? Und natürlich um die wichtigste Frage von allen: Wer ist dafür verantwortlich unsere Digitale Ethik zu formulieren und zu formen?

Wenn Sie mich fragen, wird Technologie nur so sicher sein wie die moralischen, ethischen und politischen Rahmenbedingungen, die wir um sie herum errichten. Die besten Sicherheitsmaßnahmen werden nutzlos sein, solange diejenigen, die den Schlüssel dazu besitzen, unethisch, bösartig oder grob fahrlässig handeln. Die gleiche Technologie, die zum Schutz von Verbrauchern und Bürgern geschaffen wurde, kann auch dazu verwendet werden, sie auszuspionieren und zu manipulieren. Das Internet of Things könnte sich eines Tages als das größte Panopticum entpuppen, das je gebaut wurde.

Wollen wir das? Natürlich nicht! Aber um es zu verhindern werden wir mehr tun müssen als nur technologisch aufzurüsten: Wir werden unsere ethischen Schutzrahmen umgestalten und aufwerten müssen. Was wir dringend brauchen ist eine weltweite Übereinkunft darüber, was gut ist für die Menschheit als Ganzes – und was nicht! Und wir werden Wege und Mittel finden müssen, um diese Vereinbarungen durchzusetzen.

Diese Ausgabe wird wahrscheinlich viel schwieriger sein, als die Technologie selbst zu erschaffen. Bedenken Sie bitte: Technologie kennt keine Ethik, aber ohne sie funktioniert keine Gesellschaft! Zivilisationen werden von ihren Technologien angetrieben, aber sie werden von ihrer Humanität definiert. Technologie ist nicht nur das, was wir suchen, sondern wie wir es suchen.

*Gerd Leonhard ist Futurist und Begründer von The Future Agency mit Sitz in Zürich. Sein Buch Technology vs. Humanity – unsere Zukunft zwischen Mensch und Maschine, erschien 2016 bei Vahlen und wurde inzwischen in zahlreiche Sprachen übersetzt, darunter Spanisch, Französisch, Portugiesisch, Koreanisch und – von mir ins Deutsche!

 

Dieser Beitrag wurde unter Allgemein abgelegt und mit , , , , , , , , , , , , , , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

Kommentar verfassen

This site uses Akismet to reduce spam. Learn how your comment data is processed.