Die E-Books des Reclam Verlags verwenden entsprechend der jeweiligen Buchausgabe Sperrungen zur Hervorhebung von Textpassagen. Diese Textauszeichnung wird nicht von allen Readern unterstützt.
Enthält das E-Book in eckigen Klammern beigefügte Seitenzählungen, so verweisen diese auf die Printausgabe des Werkes.
1901 habe ich zu meinem Bruder Orville gesagt:
Menschen werden in 50 Jahren noch nicht fliegen.
Wilbur Wright, Flugpionier
Eine Million Dollar Preisgeld. Für 241 Kilometer Strecke auf einem abgesperrten Militärgelände in der Mojave-Wüste im US-Bundesstaat Kalifornien. Das waren die Bedingungen beim ersten DARPA Grand Challenge des US-Verteidigungsministeriums für autonome Fahrzeuge im Jahr 2004. Rund hundert Teams traten an. Das beste blieb nach 14 Kilometern stecken; alle anderen scheiterten noch schneller. Acht Jahre später, 2012, gibt Google eine unscheinbare Pressemitteilung heraus: Seine Roboter-Fahrzeuge, bekannt aus Youtube-Filmchen, hätten bereits Hunderttausende Kilometer unfallfrei im Straßenverkehr zurückgelegt. Inzwischen sind Tesla-Fahrer Millionen von Meilen im Autopilot gefahren. Zwar müssen Fahrer in kniffligen Situationen immer mal wieder das Steuer übernehmen, worauf der Autopilot sie rechtzeitig hinweist. Aber ein scheinbar unlösbares Problem ist im Grundsatz gelöst. Der Weg zum vollautomatischen Vehikel für die Massen ist gut ausgeschildert.
Künstliche Intelligenz (KI) erlebt gerade ihren Kitty-Hawk-Moment. Den KI-Forschern ergeht es wie den Pionieren des Motorflugs. Jahrzehntelang sind sie immer wieder gescheitert, nach vollmundigen Ankündigungen ein ums andere Mal abgestürzt. Doch dann gelingt den Brüdern Wright in Kitty Hawk im US-Staat North Carolina der Durchbruch. Die Technologie hebt ab und plötzlich klappt, was vor wenigen Jahren nur eine großsprecherische Behauptung war. Seit rund drei Jahren können Computerprogramme menschliche Gesichter deutlich zuverlässiger erkennen als die meisten Menschen. Bei der Diagnose bestimmter Krebszellen sind Rechner heute schon genauer als die besten Ärzte der Welt – geschweige denn als durchschnittliche Ärzte in einem Provinzkrankenhaus. Computer schlagen den Menschen nicht nur im intuitiven Brettspiel Go, seit Januar 2017 ist amtlich: Sie bluffen auch besser als die besten Pokerspieler der Welt. Bei der japanischen Versicherung Fukoku Mutual prüft das IBM-System Watson die Rückerstattungsansprüche der Versicherten. Bei Bridgewater, dem größten Hedgefonds der Welt, entscheiden Algorithmen nicht nur über Investitionen. Ein mit umfangreichen Mitarbeiterdaten gefüttertes System wird zum Robo-Boss: Es kennt die wahrscheinlich beste Geschäftsstrategie, die beste Zusammensetzung eines Teams für bestimmte Aufgaben, und es gibt Empfehlungen zu Beförderungen und Entlassungen.
KI ist die nächste Stufe der Automatisierung. Schweres Gerät erledigt schon seit Langem die schmutzige Arbeit. Fertigungsroboter wurden seit den 1960er Jahren immer geschickter. IT-Systeme halfen bis dato vor allem bei den Routineschleifen der Wissensarbeit. Sie erleichtern die Buchhaltung, rechnen im Auftrag des Menschen oder verarbeiten Texte. Doch mit Künstlicher Intelligenz treffen jetzt Maschinen komplexe Entscheidungen, die bisher nur Menschen treffen konnten. Oder genauer formuliert: Wenn Datengrundlage und Entscheidungsrahmen stimmen, entscheiden KI-Systeme besser, schneller und billiger als LKW-Fahrer, Sachbearbeiter, Verkäufer, Ärzte, Investmentbanker oder Personal-Manager.
Zwanzig Jahre nach dem ersten Motorflug in Kitty Hawk war eine neue Industrie entstanden. Die Luftfahrt sollte die Welt alsbald grundlegend verändern. Bei Künstlicher Intelligenz könnte es ähnlich laufen. Sobald aus Daten lernende Maschinen in einem bestimmten Bereich besser, billiger und schneller entscheiden als Menschen, ist ihr Siegeszug in diesem Bereich nicht aufzuhalten. Eingebaut in physische Maschinen wie Autos, Roboter oder Drohnen, schalten sie bisheriger Automatisierung in der anfassbaren Welt den Turbo zu. Miteinander vernetzt werden sie zu einem Internet der intelligenten Dinge, die zusammenarbeiten können.
Gil Pratt, der Leiter des Toyota Research Institutes, schlägt einen noch größeren historischen Bogen als in die Dünen der Outer Banks von Kitty Hawk. Pratt vergleicht die jüngsten Fortschritte in der KI mit der Kambrischen Explosion in der Evolutionsgeschichte vor 500 Millionen Jahren. Nahezu alle Tierstämme haben ihren Ursprung in dieser Zeit und es begann eine Art evolutionäres Wettrüsten, unter anderem, weil erste Arten die Fähigkeit zu sehen entwickelten. Mit Augen ließen sich neue Lebensräume erobern und biologische Nischen erschließen. Die Artenvielfalt explodierte. Die Analogie zur digitalen Bilderkennung mit KI liegt nahe. Erik Brynjolfsson und Andrew McAfee vom Massachusetts Institute of Technology führen den Vergleich mit der Frühphase der Evolution weiter: »KI wird eine Vielzahl neuer Produkte, Dienstleistungen, Prozesse und Organisationsformen hervorbringen und zugleich viel Bekanntes aussterben lassen. Und es wird sicher einige seltsame Irrwege der technischen Evolution geben und völlig unerwartete Erfolge.«
KI-Forscher und die Hersteller von lernenden Software-Systemen haben zurzeit mächtig Oberwasser. Startups mit Kapitalbedarf neigen dazu, jeder digitalen Anwendung das Label Künstliche Intelligenz aufzukleben. Dies geschieht oft unabhängig davon, ob das System tatsächlich aus Daten und Beispielen lernt und seine Lernerfahrungen abstrahieren kann, oder de facto klassisch programmiert ist und eher stupiden Programm-Anweisungen folgt. KI verkauft, aber viele Käufer – Forschungsförderer, Investoren oder Verbraucher – können die technische Funktionsweise des Produkts nur schwer einschätzen. Künstliche Intelligenz umgibt zurzeit eine magische Aura. Das ist nicht zum ersten Mal der Fall.
Die Künstliche Intelligenz hat schon mehrere Hype-Zyklen durchlaufen: Großen Versprechen folgten immer wieder Phasen mit großen Enttäuschungen. In den sogenannten »KI-Wintern« kamen dann selbst bei glühenden Anhängern Zweifel auf, ob sie nicht Hirngespinsten nachrannten, angetrieben von den Visionen der Science Fiction-Autoren, die sie in ihrer Jugend verschlungen hatten.
Bei aller nötigen Vorsicht lässt sich heute sagen: In den letzten Jahren hat die Künstliche Intelligenz-Forschung Nüsse geknackt, an denen sie sich seit Jahrzehnten die Zähne ausgebissen hat. Ein interessanter Zug des Menschen in diesem Zusammenhang ist: Er sieht Maschinen vor allem als intelligent an, wenn sie neue Problemlösungsfähigkeiten erwerben. Wenn eine Maschine besser multipliziert als ein Rechengenie, schlauer Schach spielt als der amtierende Weltmeister oder uns zuverlässig den Weg durch die Stadt weist, sind wir für kurze Zeit beeindruckt. Doch kaum sind Taschenrechner, Schachcomputer oder Navigations-App günstige Massenprodukte, empfinden wir die Technologie als banal. Nehmen unsere eigenen Fähigkeiten zu, dann neigen wir hingegen individuell und kollektiv zu einer deutlich großzügigeren Bewertung.
Die Lernkurve der Maschinen scheint zurzeit deutlich steiler als jene des Menschen. Das wird das Verhältnis von Mensch und Maschine grundlegend verändern. Die Euphoriker im Silicon Valley wie der Erfinder, Autor und Google-Forscher Ray Kurzweil sehen darin den Schlüssel zur Lösung aller großen Probleme unserer Zeit. Apokalyptiker wie der Oxford-Philosoph Nick Bostrom fürchten dagegen die Machtübernahme der Maschinen und das Ende der Menschheit. Extrempositionen sorgen für Schlagzeilen. Für ihre Vertreter sind sie ein gutes Geschäft auf dem Markt für Aufmerksamkeit. Dennoch sind sie wichtig, weil sie viele Menschen dazu bringen, sich mit Künstlicher Intelligenz näher zu beschäftigen.
Wer die Chancen und Risiken einer neuen Technologie erkunden möchte, muss zunächst die Grundlagen verstehen. Er muss verständliche Antworten auf die Fragen finden: Was ist Künstliche Intelligenz überhaupt? Was kann sie heute und in absehbarer Zeit? Und welche Fähigkeiten muss der Mensch weiterentwickeln, wenn Maschinen immer intelligenter werden und den Menschen zu überflügeln sich anschicken? Nach Antworten auf diese Fragen sucht dieses Buch.
Intelligenz ist das, was wir benutzen,
wenn wir nicht wissen, was wir tun sollen.
Jean Piaget, Biologe und Entwicklungspsychologe
Der Tesla fährt im Autopilot-Modus mit 130 Kilometern pro Stunde auf der linken Spur der Autobahn. Auf der rechten Spur fahren mehrere Lastwagen mit 90 km/h. Der Tesla nähert sich der Kolonne. Der letzte LKW setzt links den Blinker und will überholen. Der Autopilot muss eine komplexe Entscheidung treffen. Soll der Tesla mit gleicher Geschwindigkeit weiterfahren oder gar beschleunigen, um auf jeden Fall den Laster passiert zu haben, bevor dieser eventuell die Fahrbahn wechselt? Sollte er hupen, um den LKW-Fahrer zu warnen? Wäre das in dieser Situation erlaubt? Oder soll der Tesla bremsen und dem LKW das Überholmanöver höflich erlauben, auf Kosten der Reisegeschwindigkeit, aber zugunsten der Sicherheit? Wobei bremsen freilich nur dann sicher wäre, wenn von hinten kein von Testosteron gesteuerter Sportwagenfahrer mit zwei Metern Abstand drängelt.
Noch vor wenigen Jahren hätten wir diese Entscheidung unter keinen Umständen einer Maschine anvertraut – und dies vollkommen zu Recht. Die Technologie hatte noch nicht unter Beweis gestellt, dass sie uns statistisch gesehen mit höherer Wahrscheinlichkeit sicher ans Ziel bringt, als wenn wir selbst mit erlernter Regelkenntnis, Erfahrungswissen, den Fähigkeiten zur Antizipation von menschlichem Verhalten und unserem berühmten Bauchgefühl hinter dem Steuer sitzen.
Teslafahrer delegieren schon heute während des Fahrens viele Entscheidungen an die Maschine. Das ist nicht ohne Risiko. Autonomes Fahren funktioniert bei Weitem nicht perfekt, weder bei Tesla, Google oder den traditionellen Autobauern wie Mercedes, Audi, Nissan, Hyundai oder Volvo, die mit Hochdruck an Autopilot-Systemen arbeiten, aber viele ihrer Funktionen aus Sicherheitsgründen noch nicht freigeschaltet haben. Bei gutem Wetter und auf klar markierten Autobahnen sind Maschinen bereits heute nachweislich die besseren Fahrer. Es ist eine Frage der Zeit, bis dies auch in der Stadt oder bei Nacht und Nebel der Fall ist oder eine Maschine bei Blitzeis die Entscheidung trifft, gar nicht zu fahren, weil das Risiko schlicht zu hoch ist. Ein altes Bonmot in der KI-Forschung lautet: Maschinen fällt leicht, was Menschen schwerfällt, und umgekehrt. Autofahren mit seinen abertausend kleinen, aber dennoch komplexen Entscheidungssituationen während einer Fahrt war Computern bisher nicht möglich. Warum ändert sich das gerade? Abstrakt gesprochen lautet die Antwort: Weil aus Daten lernende Software in Verbindung mit steuerungsfähiger Hardware den Dreischritt von Erkennen, Erkenntnis und Umsetzung in eine Handlung immer besser beherrschen.
Im konkreten Beispiel des Teslas und des blinkenden LKWs bedeutet dies: GPS-System, hochauflösende Kameras, Laser- und Radarsensoren sagen dem System nicht nur genau, wo sich das Auto befindet, wie schnell der Laster fährt, wie die Straße beschaffen ist und ob es rechts noch eine Notspur gibt. Die Bilderkennungssoftware des Systems identifiziert zudem zuverlässig, dass es der Laster ist, der blinkt und nicht eine Baustellenleuchte. Diese Fähigkeit des Erkennens haben Computer erst vor wenigen Jahren erworben. Die besten von ihnen können heute unterscheiden, ob auf der Straße ein Papierknäuel liegt, den das Fahrzeug getrost überfahren kann, oder ein Steinbrocken, dem es ausweichen muss.
Alle visuellen (und sonstigen sensorischen) Daten fließen in einen kleinen Supercomputer im Fahrzeug ein, zusammengesetzt aus vielen Rechenkernen und Grafikkarten. Die Recheneinheit muss die Informationen in Sekundenbruchteilen sortieren und dabei in Echtzeit gewonnene Daten, bereits gesammelte Daten und einprogrammierte Regeln miteinander abgleichen. Das Tesla-System weiß in diesem Moment, dass es Vorfahrt hat. Ihm wurde die Verkehrsregel mit auf den Weg gegeben, dass der Lasterfahrer nur ausscheren und überholen darf, wenn von hinten keiner kommt. Geschult durch maschinelle Lernerfahrung aus vielen Milliarden Meilen im Straßenverkehr – den sogenannten Feedbackdaten – weiß das System aber auch: LKW-Fahrer halten sich nicht immer an Verkehrsregeln. Es gibt eine signifikante Wahrscheinlichkeit, dass der Laster ausschert, obwohl der Tesla von hinten anrollt, und dass es keineswegs im Interesse seiner Passagiere ist, wenn ein Robo-Auto auf der Straßenverkehrsordnung beharrt, aber dabei einen schweren Unfall riskiert.
Aus Situation, Regeln und Erfahrung leitet das System eine Erkenntnis ab, nämlich die beste Möglichkeit aus vielen errechenbaren Szenarien, einen Unfall zu vermeiden und dennoch zügig voranzukommen. Im Kern handelt es sich dabei um eine kognitive Entscheidung, also die Auswahl einer Handlungs-Option unter vielen. Die beste Lösung des Problems ist das Ergebnis einer Wahrscheinlichkeitsrechnung, in die viele Variablen einfließen.
Ein teilautomatisches Fahrassistenz-System bietet seine Erkenntnis dem Fahrer nur als Entscheidungsgrundlage an, zum Beispiel, indem es mit einem Piepton vor dem Laster warnt, wenn dieser nicht nur den Blinker gesetzt hat, sondern wenn kleine Schlingerbewegungen darauf hindeuten, dass der Fahrer nun tatsächlich gleich das Lenkrad nach links dreht. Der Mensch kann dann dem maschinellem Rat folgen oder ihn