Die Welt mit anderen Augen sehen

Ich seh was, was du nicht siehst!

Ich seh was, was du nicht siehst!

Um das World Wide Web nutzen zu können, benötigen wir einen Computer. Das heißt: früher war das so. Heute verwenden laut einer Umfrage des IT-Branchenverbands BITKOM fast 90 Prozent der Jugendlichen zwischen 12 und 16 ein Smartphone. Bei den 10 bis 11jährigen sind es schon 44 Prozent.

Kids brauchen keine klobigen Desktops oder kantigen Laptops. Sogar die schnittigen Tablets vom Schlag eines iPad oder Galaxy Tab verschmähen sie. Der Smartphone passt bequem in die Hosentasche, und der Bildschirm ist groß genug, um die ganze bunte Welt des World Wide Web samt Apps, Chats und Spiele ausreichend abzubilden. Was will der Mensch mehr?

Selbstverständlich ist das Smartphone auch nur ein Zwischenschritt, wie die anderen auch. Google hat und mit „Google Glas“ gezeigt, wohin die Reise gehen wird. Auch wenn die erste Version der Internet-Brille nicht ausgereift war und deshalb zurückgezogen wurde, geht die Entwicklung weiter, und gehört nicht viel Fantasie dazu, sich einen nicht allzu fernen Tag vorzustellen, wenn wir alle mit Kontaktlinsen (oder vielleicht sogar Linsen-Implantate“ herumlaufen werden, die wie Google Glas in der Lage sind, uns digitale Inhalte vor das Bild unserer (realen) Umgebung zu projizieren. Beim Blick in den Kühlschrank sehen wir gleich, wann die Milch ablaufen wird oder bekommen passende Rezeptvorschläge präsentiert.

Was passiert aber, wenn wir dauernd mit einer Mischung aus Realität und Virtualität konfrontiert werden? Die beiden beginnen zu verschwimmen, bis wir den Unterschied gar nicht mehr erkennen. Unsere Wahrnehmung der Realität verändert sich unter dem Einfluss von Digitaltechnik und Vernetzung: Wir sehen die Welt im Wortsinn mit ganz anderen Augen! Viel fundamentaler kann Veränderung nicht sein. Und wenn wir es einmal satthaben, dann gibt es ja den Ausschaltknopf. Den gibt es übrigens auch am Fernseher: Wir könnten, wenn wir wollten, den Ton abdrehen und, wie unsere Großeltern Stummfilme genießen. Die fanden das ja damals ganz unterhaltend. Aber uns würde heute vielleicht etwas fehlen – eine komplette Dimension, sozusagen. So wird es mit den digitalen Inhalten sein, die vor unseren Augen zu schweben sein – wir werden sie eines Tages gar nicht mehr missen wollen.Eine interessante Parallele zwischen Wildem Westen und World Wide Web ist der Vergleich zwischen Colt und Computer. Beide haben die Anfangsjahre ihrer Epoche geprägt, sie waren allgegenwärtig, niemand kam ohne sie aus.  Beide dienten im Grunde friedliche Zwecke – nicht umsonst hieß der Colt im Jargon des Wilden Westens der „Peacemaker“ – und stifteten viel Gutes; aber beide wurden zu ganz und gar unfriedlichen Zwecken mißbraucht und haben viel Leid und Schaden über die Menschen gebracht.

1836 erhielt der Großwildjäger und Waffenbastler Samuel Colt einen Patent für eine Handfeuerwaffe, bei der die Patronen in einer drehbaren Trommel kreisförmig angeordnet waren. Dadurch war es möglich, fünf bis sechs Schuss (je nach Modell) rasch hintereinander abzufeuern. Colts Erfindung war den damals meist nur einschüssigen Waffen natürlich haushoch überlegen. Der „Sixshooter“, wie er auch genannt wurde, geriet zum Symbol der Epoche. 1955 drehte der Regisseur William Castle den Film „The Gun That Won the West“, in dem der Colt neben dem Winchester Repetiergewehr die Hauptrolle spielte.

Der Computer, der den Web gewann, um im Bild zu bleiben, war der WinTel-PC, dessen Dominanz Anfang der 90er Jahre einzigartig war. Natürlich hatte es vorher schon „persönliche“ Computer für den Hausgebrauch gegeben. Sie wurden von Herstellern wie Atari, Sinclair, Commodore und später auch von Apple angeboten. „Richtige“ Computer, wie sie in Unternehmen eingesetzt wurden, wogen oft mehrere Zentner und waren für Otto Normalverbraucher unerschwinglich.

1981 beschloss IBM, eine kompaktes, handliches Modell auf den Markt zu bringen, der auf den Namen „Personal Computer“ hörte. Nur leider kannte sich bei IBM damals keiner mit den Betriebssystemen für solche Kleinrechner aus, und so wandte man sich an zwei junge Studienabbrecher aus dem Nordwesten der USA, Bill Gates und Steve Allan, die 1975 eine winzige Firma namens Microsoft gegründet hatten, das BASIC-Interpreter für die neuen Minicomputer entwickelte und vertrieb. Als „Big Blue“ mit einem Riesenauftrag drohte, nahmen Gates und Allan ihren ganzen Mut und ihre gesamten Ersparnisse zusammen und kauften für 50.000 Dollar ein einfaches Betriebssystem namens 86-DOS von der noch viel kleineren Firma SCP und entwickelten daraus MS-DOS.

Von da an gab es kein Zurück: IBM verkaufte im ersten Jahr mehr als 250.000 PCs, und in den Folgejahren wurden daraus Millionen. Halbleiter-Hersteller Intel stieg ins Geschäft ein und lieferte die passenden x86-Prozessoren, die zeitweise über 85 Prozent aller Computerchips. Da sich Intel eng mit den Entwicklern bei Microsoft abstimmten, funktionierten die Produkte beider Firmen besonders gut miteinander, und so wurde „WinTel“ – die Kombination von Intel-Chips und Microsofts Betriebssystem „Windows“, das aus dem vergleichsweise primitiven MS-DOS heraus entwickelt worden war – zum Weltstandard für Personal Computer. Daran konnte auch die kleine Firma Apple nichts ändern, denn deren schicken Hochleistungsprodukte galten zwar unter Nerds und Computer-Designern als „sexy“ im Gegensatz zum langweiligen Arbeitspferd WinTel, aber die Stückzahlen blieben überschaubar.

Diese erste Phase der PC-Revolution dauerte ungefähr bis Mitte der 90er Jahre: Danach begannen die Verkaufszahlen von klobigen Desktop-PCs zu sinken. Dafür zogen mobile Klappcomputer an ihnen vorbei. „Tragbare“ PCs wie den Osborne 1 oder den KayPro gab es zwar schon in den 80ern, aber sie waren so groß wie ein Pilotenkoffer und wogen so viel wie eine Kiste Bier, was ihnen den Spottnamen „Schlepptop“ einbrachte. Dagegen waren die neuen Laptops oder Notebooks, wie sie je nach Hersteller hießen, schlank und leicht gebaut; nur die Batterien schwächelten oft, was die Einsatzdauer unterwegs verkürzte.

Doch auch die Glanzzeiten des Laptops verblasste bald: 2010 stellte Apple den iPad vor, den ersten Tablet-PC der Welt, der sofort begann, dem Mobil-PC Marktanteile abzunehmen. 2012 wurden bereits mehr als fünf Millionen Apple-Flunder sowie zunehmend auch Konkurrenzprodukte mit Android-Betriebssystem verkauft. Tablets hatten ja auch deutliche Vorteile gegen dem Laptop: Sie waren klein und handlich, wogen meist nur ein paar Hundert Gramm und passten bequem in eine Akten- oder Handtasche.

Tablets wurden dank ihrer intuitiven Bedienung – selbst Kleinkinder können spilerisch damit umgehen – zur beliebtesten Eingangstür zum World Wide Web, das sich etwa ab 1995 krakenartig auszubreiten begann. Im Jahr 2000 nutzten mehr als 18 Millionen Deutsche zumindest gelegentlich das neue Medium – mehr als ein Viertel der damaligen Bundesbevölkerung.

Heute ist natürlich so gut wie jeder im World Wide Web unterwegs, in der Altersgruppe ab 14 bis 19 Jahren sind es sogar tatsächlich 100 Prozent! Nur unter den echten Senioren, also den über 60jährigen, gibt es noch ein paar Web-Muffel, aber mit 5,5 Prozent sind sie statistisch mehr oder weniger vernachlässigbar (siehe Tabelle).

Doch inzwischen sind auch Tablets, jedenfalls bei den jüngeren Web-Usern, ein alter Hut! Am 29. Juni 2007 hielt Apple-Chef Steve Jobs auf der Bühne im Moscone Center in San Francisco ein kleines viereckiges Gerät in die Höhe, das irgendwie aussah wie ein Mobiltelefon (das die Deutschen witzigerweise „Handy“ nennen – ein Begriff, mit dem kein Amerikaner etwas anfangen kann: bei uns Angelsachsen heißen die Dinger „mobiles“). Nur fehlte bei Steves Gadget das Wichtigste: die Tastatur! Dafür hatte es ein viel größeres Display als die herkömmlichen Mobiltelefone von Nokia & Co.

In Wahrheit fehlte einiges mehr, denn das Gerät, das Steve damals präsentierte, war noch gar nicht fertig. Manchmal verlor es die Verbindung zum Internet, oft kamen gar keine Anrufe an, und das Gerät stürzte immer wieder ab. Davon bekam das Publikum natürlich nichts mit, denn Steve’s Ingenieure hatten einen Weg gefunden, wie die Demo doch noch gelingen könnte – nur musste sich der Boss exakt ans Drehbuch halten. Hätte er sich auch nur einmal verdrückt, wäre die Weltsensation wohl eher als Super-GAU in die Geschichte eingegangen.

Aber so konnte Steve am Ende verschmitzt lächeln und der staunenden Weltöffentlichkeit die Botschaft verkünden: „Wir nennen es iPhone!“ Damit begann eine ganz neue, nämlich die Ära des Smartphones.

Sie haben unser Leben mehr verändert als jedes andere Gerät vor ihnen. Sie sind unsere ständigen Begleiter, getreu der Anweisung des legendäre Fußball-Bundestrainers Sepp Herberger, der seinen „Helden von Bern“ 1954 vor dem Gewinn der WM angeraunzt haben soll: „Notfalls folgt ihr euren Gegenspieler bis aufs Klo!“

Dass es in der Nebenkabine klingelt und jemand abhebt, ist in deutschen Bahnhofs- und Flughafentoiletten heute gang und gäbe. Kinder und Jugendliche, so muss es älteren Semestern erscheinen, haben ein geradezu symbiotisches Verhältnis zu ihren Smartphones, und es fällt schwer sich vorzustellen, wie die Beziehung noch enger werden könnte, ohne dass wir die SIM-Karte direkt in einen entsprechenden Schlitz in der Stirn implantieren.

Tatsächlich ist davon auszugehen, dass spätestens die nächste Generation der Menschheit genau das erleben wird, nämlich die direkte Verbindung von Mensch und Maschine. Elon Musk, der Mann, der mit Tesla die Automobilwirtschaft aufgemischt hat, hat 2017 die Firma Neualink gegründet, deren Ziel es ist, eine Schnittstelle zwischen menschlichem Gehirn und World Wide Web zu schaffen. Das sei für das Überleben der Menschheit wichtig, behauptet Musk, denn Maschinen werden weiterhin jedes Jahr, dem Moore’schen Gestez folgend, doppelt so intelligent werden. Es ist absehbar, dass Homo sapiens irgendwann weit zurückfallen wird. Nur wenn es gelingt, das Gehirn drahtlos mit der Cloud und damit mit allen anderen Menschen und ihren Computern zu verbinden, wird der Mensch die Herrschaft über seine Maschinen bewahren, so Musk.

Man kann zu seiner These stehen wie man will: Die Direktverbindung Mensch-Computer ist längst Realität geworden. Der Autor dieser Zeilen durfte 2017 im Ars Electronica Center in Linz, dem „Museum für die Zukunft“, das uralte Videospiel „Pong“, bei dem es darum geht, einen „Schläger“ am Bildschirmrand rauf und runter zu bewegen, um einen „Ball“ – einen beweglichen Lichtpunkt –  ins gegnerische „Spielfeld“ zurückzuschlagen. Der Unterschied war: Ich trug auf dem Kopf eine Haube aus leichtem Baumwollstoff, in dem mehrere Dutzend Sensoren steckten, die Gehirnwellen messen können. Und so konnte ich den digitalen Pingpongpaddel per Gedanken steuern. Die digitale Zukunft lässt grüßen.

Dieser Beitrag wurde unter Das digitale Ich, Digitale Transformation, Technology vs. Humanity, Wild Wild Web abgelegt und mit , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

Kommentar verfassen

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.