Cover

Stefan Buijsman

ADA
UND DIE
ALGORITHMEN

Wahre Geschichten aus der Welt
der künstlichen Intelligenz

Aus dem Niederländischen
von Bärbel Jänicke

C.H.Beck

Zum Buch

Seitdem die Byron-Tochter Ada Lovelace Mitte des 19. Jahrhunderts das erste Computerprogramm schrieb, sind Computer sehr viel kleiner, schneller und vor allem intelligenter geworden. Ist die von ihnen hervorgebrachte künstliche Intelligenz eine existenzielle Bedrohung für die Menschheit? Der junge Mathematiker und Philosoph Stefan Buijsman ist mit Computern aufgewachsen und kennt nicht nur keine Angst vor Algorithmen, sondern durchschaut sie auch. Formelfrei zeigt er, wie Gesichtserkennung, selbstfahrende Autos, Tinder-Matches und Fake News funktionieren (bzw. häufig eben nicht oder nur schlecht funktionieren und warum das so ist). In vielen unterhaltsamen Geschichten klärt er uns über die Technologie der Zukunft auf. Hat man erst einmal hinter den Bildschirm geschaut, sieht die Welt der Algorithmen gleich schon sehr viel weniger beängstigend aus.

»Pflichtlektüre für alle, die sich ohne Hype über eines der wichtigsten Themen der kommenden Jahrzehnte informieren möchten.«– Het Financieele Dagblad

Über den Autor

Stefan Buijsman, geboren 1998, gilt als mathematisches Wunderkind. Im Alter von achtzehn Jahren erlangte er einen Magisterabschluss in Philosophie an der Universität Leiden und promovierte anschließend innerhalb von achtzehn Monaten an der Universität Stockholm im Fach Mathematik. Mittlerweile beschäftigt er sich mit der Philosophie der Mathematik. Sein bei C.H.Beck erschienenes Debüt»Espresso mit Archimedes«(22019) wurde in fünfzehn Sprachen übersetzt.

INHALT

EINLEITUNG

1: ZAHNRAD, STROM ODER LICHTTEILCHEN. UNTER DER MOTORHAUBE IHRES COMPUTERS

Freihändig! Elektrische Impulse in modernen Computern

Jenseits des Stromes: Eine kurze Bemerkung zu Quantencomputern

Informationen im Gehirn

Zwei Arten von Mathematik

2: DIE AUFWÄNDIGE SUCHE. DIE VERGANGENHEIT DER KÜNSTLICHEN INTELLIGENZ

Regel-mäßige Therapie

Die Höhepunkte und der Niedergang der expliziten Regeln

Versuch und Irrtum: Evolutionäre Algorithmen

Überall Wettbewerb

3: NEURONALE NETZE IN BILDERN

Mit künstlichen Neuronen Handschriften entziffern

Kleine Schritte in die Tiefe: Wie ein neuronales Netz lernt

Die begrenzte Verallgemeinerungsfähigkeit neuronaler Netze

Bilder im Gehirn

Das Gehirn mit dem Computer imitieren

Ein CNN, für alles zu gebrauchen

4: VORHERSAGBARE GESPRÄCHE.NEURONALE NETZE UND SPRACHE

Wortschatz und Wischen

Fake News aus einem Chip

Das Tempo der modernen künstlichen Intelligenz: Sprachsprünge

Die Abhängigkeit von Daten

Was man mit Wahrscheinlichkeiten nicht alles so anfangen kann!

Philosophisches Intermezzo: Wörter und die Welt

Können wir Bedeutung jemals einprogrammieren?

5: KREATIVITÄT AUS EINEM CHIP

Der Fälscher und der Polizist: die Funktionsweise eines GAN

Gezielte Manipulation

Computerkunst!?

Mangelnde Transparenz

Kreativität jenseits der Kunst: Wie nahe ist die Roboter-Apokalypse?

6: KÜNSTLICHE INTELLIGENZ IN DER (ZUKÜNFTIGEN) GESELLSCHAFT

Die Schwachstellen neuronaler Netze

Datendrang

Menschengemachte Gefahren künstlicher Intelligenz

Computer statt Mitarbeiter?

Zum Schluss

Bildteil

LINKS

Kapitel 1

Kapitel 2

Kapitel 3

Kapitel 4

Kapitel 5

LITERATUR

Leseempfehlungen

Einleitung

Vorteile

Gefahren

Übertriebene (Angst vor) Technik

1. Zahnrad, Strom oder Lichtteilchen.Unter der Motorhaube Ihres Computers

Geschichte der Computer

Computerarchitektur

Quantencomputer

Die Funktionsweise unseres Gehirns

Formale/informelle Mathematik

Das Argument des chinesischen Zimmers

2. Die aufwändige Suche. Die Vergangenheit der künstlichen Intelligenz

Schachspielen

Expertensysteme

Evolutionäre Algorithmen

3. Neuronale Netze in Bildern

Neuronale Netze – Grundlagen

Konvolutionäre neuronale Netze – Funktionsweise

Konvolutionäre neuronale Netze – Anwendung: positiv

Konvolutionäre neuronale Netze – Anwendung: bedenklich

Fehler wegen falscher Muster

Erklärungen für das Verhalten neuronaler Netze

Das visuelle System unseres Gehirns

4. Vorhersagbare Gespräche. Neuronale Netze und Sprache

Word2Vec und dessen Variationen

Rekurrente neuronale Netze und deren Anwendungen

Moderne Netze: BERT, GPT-2

Übersetzungen

Diskriminierung und andere Datenprobleme

Bedeutung

Noch einmal das Chinesische-Zimmer-Argument

5. Kreativität aus einem Chip

GANs

Computerkunst

Musik von einem Algorithmus

Deepfakes aufspüren

Übernehmen Computer die Weltherrschaft?

6. Künstliche Intelligenz in der (zukünftigen) Gesellschaft

Positive Beispiele

Diskriminierung

Arbeitsmarkt

Richter

Gefahren

BILDNACHWEIS

Textteil

Farbteil

Bildteil

1  Reese Witherspoon (links) wird von neuronalen Netzen normalerweise korrekt erkannt. Fügt man dem Foto eine besonders bunte Brille hinzu (Mitte), ist der Computer überzeugt, dass es sich um Russell Crowe (rechts) handelt.

2 3 Mit einer nicht weniger stylischen Brille wird man für den Computer zu einem Filmstar und Supermodel, in diesem Fall zu Milla Jovovich.

4–5 Links ein Wohnzimmer mit einem Elefanten, der anscheinend ein Stuhl ist (der Computer erkennt auch eine Reihe von Dingen, wie den Becher neben dem Sofa, nicht mehr). Rechts eine doppelte Katze, mit einer Vorderpfote, die wohl irgendwie einem Hund gleicht.

4 5 Links ein Wohnzimmer mit einem Elefanten, der anscheinend ein Stuhl ist (der Computer erkennt auch eine Reihe von Dingen, wie den Becher neben dem Sofa, nicht mehr). Rechts eine doppelte Katze, mit einer Vorderpfote, die wohl irgendwie einem Hund gleicht.

6 9 Computer erkennen Darstellungen nicht, entweder aufgrund ihrer Form (links oben und wahrscheinlich rechts unten) oder aufgrund ihrer Farbe (links unten und rechts oben).

10  Eine Anzahl von Molekülen, in denen, wie der gepunktete Kubus zeigt, das Mustererkennungselement des neuronalen Netzes konsequent dasselbe Molekül aufspürt.

11 Die verblassende Erinnerung eines neuronalen Netzes. Es beginnt links, und je mehr Wörter es gesehen hat (je weiter es nach rechts rückt), desto schwieriger wird es, das ursprüngliche Rosarot zu bewahren.

12 13 Zwei von einem neuronalen Netz kreierte Porträtfotos. Keine der beiden Personen existiert.

14  Ein neuronales Netz erhielt den oben stehenden Satz; allein auf dieser Grundlage entstanden diese Fotos.

15  Ein aus einem Hund gestaltetes Tässchen Espresso, warum denn nicht?

16  Gemälde von CAN, die die Testpersonen am meisten schätzten.

17  Die unterschiedlichen Farben repräsentieren die künstlerischen Stile. Chronologisch beginnt man links unten mit Dunkelblau. Dann vollzieht sich die Entwicklung der Kunst im Uhrzeigersinn über Grün, Gelb, Orange zu Rot, bis sie unten bei Mondrian und Malewitsch ankommt.

EINLEITUNG

Computer werden über kurz oder lang die Hälfte aller Arbeitsplätze ersetzen. Algorithmen können die Bewegungen von Menschen durch Wände hindurch mittels WLAN-Signalen nachverfolgen. Facebook entwickelt ein Programm, das eine eigene, für uns unverständliche Sprache erfindet. Die chinesische Regierung nutzt Gesichtserkennung, um ethnische Minderheiten zu unterdrücken. Wissenschaftler haben sich einen Algorithmus ausgedacht, der vollautomatisch Fake News produziert, und sie weigern sich aus Sicherheitsgründen, ihn öffentlich zugänglich zu machen. Programme können leicht zu rassistischen oder sexistischen Ergebnissen kommen. Samsung generiert auf der Grundlage eines einzelnen Fotos lebensechte Videoclips, etwa einer fröhlich plaudernden Mona Lisa. Mit derselben Technologie lassen sich Interviews faken, ohne dass man den Unterschied zu realen Gesprächen erkennt.

Eines ist klar: Künstliche Intelligenz ist gerade dabei, die Welt zu verändern. Und wie bei jeder grundlegend neuen Technologie ist es noch längst nicht ausgemacht, welche Auswirkungen das haben wird. In den USA beispielsweise entbrannte im 19. Jahrhundert eine heftige Diskussion über die ersten Züge, die mit einem Tempo von etwa 80 Stundenkilometern fahren konnten. Man machte sich ernstliche Sorgen darüber, ob derartige Geschwindigkeiten für Frauen nicht gefährlich sein könnten. In der Presse war damals zu lesen, es bestünde ein reales Risiko, dass ihnen die Gebärmutter aus dem Leib gerissen würde. Was blanker Unsinn war – und erstaunlich obendrein, weil nur die inneren Organe von Frauen gefährdet sein sollten –, doch im Vorfeld ließ sich das schwer ausmachen. Niemand wusste, wie sich solche Geschwindigkeiten auf Menschen auswirken würden.

Genau wie die damaligen Züge können unsere heutigen Computer plötzlich viel mehr, als wir es je für möglich gehalten haben. Die Frage ist: Wie sollen wir damit umgehen? Über welche Aspekte sollten wir uns Sorgen machen, und welche Erwartungen an künstliche Intelligenz sind übertrieben? Schreitet die Automatisierung tatsächlich so schnell voran, dass wir bald alle auf der Straße sitzen und von einem universellen Grundeinkommen abhängig sein werden? Sind Computer eine existenzielle Bedrohung für die Menschheit?

Stellen Sie sich einmal Folgendes vor. Eine Gruppe von Informatikern entwirft ein Programm, das die Leitung einer Fabrik für Büroklammern übernehmen soll. Dazu muss das Programm überlegen und planen können, also sorgen die Techniker für einen brandneuen selbstlernenden Algorithmus. Das Ergebnis: Die Fabrik arbeitet zunehmend effizienter, die Kosten sinken. Großartige Nachrichten! Aber was passiert, wenn der Computer etwas zu clever ist? Wie weit würde er dann gehen, um sein Ziel (möglichst viele Büroklammern zu produzieren) zu erreichen? Kann der Algorithmus verstehen, dass wir nicht unendlich viele Büroklammern brauchen und die Fabrik daher irgendwann schließen müssen? Kommt der Algorithmus irgendwann zu dem Schluss, dass man, wenn man sich nur genug Mühe gibt, auch aus Menschen Büroklammern herstellen kann? Werden wir letzten Endes von einer Fabrik für Büroklammern ausgerottet? Ich komme später auf dieses Szenario zurück, aber angesichts dessen, dass derartige Risiken ernsthaft diskutiert werden, stellt sich die Frage: Warum fahren wir mit der Optimierung künstlicher Intelligenz dennoch fort?

Die Antwort auf diese Frage ist einfach: Künstliche Intelligenz kann unglaublich viel zur Verbesserung unseres Lebens beitragen. In Indien nutzen Analphabeten die Spracherkennung, um mit Uber Geld zu verdienen, und das, obwohl sie nicht lesen können, was in ihrer App steht. Google verkauft Pixel Buds, In-Ear-Kopfhörer, die unter anderem als automatische Dolmetscher fungieren. Lungenkrebs wird (in manchen Fällen) von Computern präziser aufgespürt als von Radiologen. Adobe entwickelt ein Programm, das Bearbeitungen von Fotos erkennen und rückgängig machen kann. Soziale Netze nutzen künstliche Intelligenz, um Daten suizidgefährdeter Nutzer an Notdienste weiterzuleiten. Dank künstlicher Intelligenz, die Wilderer anhand des Bewegungsprofils von Gazellen und Antilopen nachverfolgt, können wir Nashörner besser schützen. Im Juli 2019 wurde angekündigt, dass in den USA der erste vollständig von einem Computerprogramm entwickelte Grippeimpfstoff getestet werden soll. Auch in Bezug auf den Klimawandel kann künstliche Intelligenz sehr hilfreich sein, zum Beispiel um die Entwaldung besser zu kontrollieren, die Energieleistung von Wind- und Solarparks genauer zu prognostizieren und die Folgen der Erderwärmung zu dokumentieren, so dass Regierungen entsprechende Vorkehrungen treffen können. Der Nutzen künstlicher Intelligenz wächst, das werden wir noch in vielen Bereichen sehen.

Grund genug also, vorläufig mit der Entwicklung künstlicher Intelligenz fortzufahren. Auch wenn diese Entwicklung manchmal stark in unser Leben eingreift, denn nur dank künstlicher Intelligenz kann Facebook passgenaue Werbeanzeigen schalten. Das stößt längst nicht immer auf Begeisterung; es gibt genug Berichte von Menschen, die sich nach dem Besuch eines Uhrengeschäfts, ohne jemals im Internet nach Informationen zu Uhren gesucht zu haben, auf Facebook plötzlich mit Werbung für Uhren konfrontiert sahen. Oder bei denen nach einem Gespräch über neue Schuhe plötzlich eine ganze Reihe von Schuhmarken in ihrer Timeline auftauchten. Manchmal funktioniert der Facebook-Algorithmus allerdings ganz schön lausig: Neulich wurde ich gefragt, ob ich meine Rechte als ausländisches Au-Pair in den Niederlanden kenne, obwohl Facebook verdammt gut weiß, dass ich in Leiden geboren bin und als Philosoph der Mathematik arbeite.

Das brachte mich zum Nachdenken. Nun tue ich das als Philosoph ohnehin schon, aber es gibt auch bedeutsame Fragen zu Computern, die primär philosophischer Natur sind. Worin besteht die Bedeutung eines Wortes, und erfassen Computer diese Bedeutung, wenn sie Texte für uns schreiben? Wie kreativ sind Roboter? Können Computer jemals genauso intelligent werden wie Menschen? All diese Fragen werden in diesem Buch nach und nach thematisiert. Außerdem geht es hin und wieder um Mathematik, obwohl ich Ihnen die Formeln erspare. Ich hoffe, Ihnen eine Vorstellung davon zu vermitteln, wie künstliche Intelligenz funktioniert, wie sie sich entwickelt und wo die heiklen Punkte liegen. Sie werden sehen, dass sich dafür gerade die Kombination aus Mathematik (zum Erklären der Technik) und Philosophie (für die allgemeineren Fragen) als sehr hilfreich erweist. So können die aktuellen Entwicklungen für Sie greifbarer werden.

Denn heute, in einer Zeit, in der uns künstliche Intelligenz immer häufiger begegnet und Computer in der Gesellschaft eine immer größere Rolle spielen, ist es wichtig, die Spreu vom Weizen trennen zu können. Fast jeden Tag sehe ich Nachrichten auf meinem Smartphone aufpoppen, in denen es um dieses Thema geht, auch deshalb, weil der betreffende Algorithmus gelernt hat, dass ich solche Artikel lese (und mich weniger für Fußballergebnisse interessiere). Ich stelle aber auch fest, dass es schwierig ist, sich auf dieser Grundlage einen guten Überblick über die aktuelle Sachlage zu verschaffen. Die Nachrichten sind oft sensationsheischend geschrieben, ohne zu erklären, was sich in der Wissenschaft tatsächlich getan hat. Kleine Durchbrüche werden zu Vorzeichen einer künftigen Roboter-Apokalypse aufgebauscht.

Diese Berichte vermitteln den Eindruck, als mache die Technik rasend schnell Fortschritte; dennoch bleiben die meisten Arbeitsplätze erhalten und die vielversprechenden Projekte, von denen permanent die Rede ist, kommen nicht vom Fleck. So kooperierte beispielsweise IBM bei der Entwicklung der automatischen Diagnosestellung jahrelang mit Kliniken, aber trotz enormer Investitionen finden Ärzte das Programm heute enttäuschend. Viele Kliniken haben sich von dem Projekt zurückgezogen, weil es ihrer Meinung nach bei der Diagnose oder Behandlung keinerlei Nutzen bringt. Ganz so schnell geht es also nicht, vor allem wenn man bedenkt, dass ein Teil der Berichterstattung reiner Hype ist. Das russische Staatsfernsehen präsentierte einen «Hi-Tech-Roboter», der sich letztlich als ein verkleideter Mann entpuppte. Ungefähr 40 Prozent aller europäischen Start-ups, die als «KI-Unternehmen» klassifiziert werden, haben in Wirklichkeit nichts mit künstlicher Intelligenz zu tun, sondern ziehen dank dieses Labels lediglich mehr Zuschüsse an Land. Wenn man diese Nuancen nicht registriert, scheint sich alles viel schneller zu entwickeln.

Künstliche Intelligenz lässt sich auch deshalb schwer einschätzen, weil sie sich nicht mit menschlicher Intelligenz vergleichen lässt. Einerseits sind Computer verhältnismäßig intelligent – Autos können damit bis zu einem gewissen Grad selbständig fahren, und schon vor Jahrzehnten wurde der Schachweltmeister von einem Computer besiegt –, andererseits unterlaufen Algorithmen die peinlichsten Fehler. Im Juli 2018 verwechselte das kommerzielle Gesichtserkennungsprogramm von Amazon 28 Mitglieder des US-Kongresses mit Porträts inhaftierter Straftäter (wohlgemerkt zu Unrecht). Mitte 2019 deuteten selbst die besten Programme auf einem leicht gedrehten Bild einen Roller als Fallschirm, und Top-Algorithmen berichteten von fünfhörnigen Einhörnern und Bränden unter Wasser.

Es läuft also noch recht viel schief, die Berichterstattung ist häufig übertrieben, und die Technik undurchsichtig. Wie soll man sich da ein gutes Bild von künstlicher Intelligenz verschaffen? Dieses Buch bietet einen Blick hinter die Bildschirme und nimmt dabei die Stärken und Schwächen der modernen künstlichen Intelligenz unter die Lupe, damit Sie sich ein realistisches Bild von alldem machen können. So müssen Sie, im Gleichnis gesprochen, nicht befürchten, dass Frauen während einer Zugreise ihre inneren Organe gefährden, sind sich aber dennoch bewusst, dass Bahnübergänge gesichert werden sollten, wenn Züge plötzlich mit 80 Stundenkilometern vorbeirasen.

Dazu bedarf es zunächst einiger Hintergrundkenntnisse. Künstliche Intelligenz hat nämlich ihre Grenzen. Damit sie funktioniert, muss alles in klare Regeln gefasst werden; Computer können mit unserem allgemeinen Weltverständnis wenig anfangen. Diese Einschränkungen gehen auf die mathematische Funktionsweise unserer Computer zurück. Computer führen lediglich Berechnungen durch. Und Berechnungen unterliegen einer grundlegenden Einschränkung: Sie arbeiten einzig und allein mit Zeichen, die mathematisch gesehen keine inhaltliche Bedeutung haben. Der beste Ansatzpunkt zur Darlegung der Möglichkeiten und Grenzen künstlicher Intelligenz bildet darum auch die Grundlage, auf der all diese Programme laufen. Dementsprechend geht das erste Kapitel – in aller gebotenen Kürze – auf die Funktionsweise von Computern ein, so dass Sie besser verstehen können, worauf die Schwächen von Computern beruhen.

Diese Schwächen bestanden schon von Anfang an. Künstliche Intelligenz gibt es schon seit geraumer Zeit. Ein achtwöchiger Workshop im Sommer 1956 in Dartmouth wird oft als der Beginn dieses Fachgebiets angesehen. Obgleich die Computer zunächst nicht besonders intelligent waren, lässt sich an dieser Frühform künstlicher Intelligenz, der wir im zweiten Kapitel begegnen, eine Menge über unseren Umgang mit Computerprogrammen erkennen. Zum Beispiel unseren Drang, selbst den simpelsten Programmen menschliche Denkprozesse und Emotionen zuzuschreiben. Sowie auch unsere Neigung zu vergessen, dass Computer Dinge viel wörtlicher nehmen, als wir das je tun würden. Wir sehen Chatbots aus den sechziger Jahren, die nicht mehr vermochten, als eine Aussage in eine Frage umzuwandeln, aber die Nutzer dennoch glauben machten, dass das Programm der Stimme ihres Vaters glich. Außerdem erfahren wir etwas über Computer, die dreißig Jahre später allen Ernstes meldeten, der schnellste Weg, ein Flugzeug abzubremsen, sei ein Aufprall. Simple Programme also, die einfach zu verstehen sind, uns aber auf Denkfehler hinweisen, die wir immer noch machen, auch bei den hypermodernen Algorithmen in der heutigen Zeit. Aus diesem Grund bildet die historische Betrachtung einen guten Auftakt zum Verständnis der modernen Technologie und zu dem, was sich derzeit in unserem Umfeld abspielt.

Diese modernen Algorithmen, die auf «neuronalen Netzen» basieren, gibt es überall. Jedes Mal, wenn wir deep learning begegnen (und meistens auch, wenn wir machine learning begegnen), handelt es sich um ein neuronales Netz. Neuronale Netze stehen hinter den oben erwähnten Lungenkrebsdiagnosen und hinter der Möglichkeit, ein Smartphone mittels Gesichtserkennung zu entsperren. Sie sorgen dafür, dass ein Tesla einigermaßen selbständig fahren kann, weil er erkennt, welche Objekte sich auf der Straße befinden. YouTube und Facebook nehmen aufgrund ähnlich strukturierter neuronaler Netze Hassbilder und -videos von ihrer Plattform. Illegaler Fischfang kann mit Hilfe neuronaler Netze entlarvt werden, indem man eine Unmenge von Satellitenbildern geschickt auswertet. Supermärkte ordern dank neuronaler Netze automatisch mehr Eiscreme, wenn im Sommer die Temperaturen steigen. Aber wie zuverlässig sind diese Systeme tatsächlich? Kapiert ein Tesla immer, dass er einen Fußgänger auf der Straße sieht und nicht ein vorüberfliegendes Stück Pappe? Lässt sich die Gesichtserkennung noch austricksen? Können YouTube und Facebook ihren Algorithmen beibringen, die richtigen Entscheidungen zu treffen? Darum geht es im dritten Kapitel.

Dort sehen wir auch, dass neuronale Netze extrem spezialisiert sind. Das gilt auch für künstliche Intelligenz im Allgemeinen. Neuronale Netze bilden die Grundlage für Programme, die nicht nur Gesichtserkennung, sondern auch automatisch Fake News und Google Translate möglich machen. Viele Nachrichten über Jahresberichte von Unternehmen und kommunale Wahlergebnisse werden heute schon von Computern geschrieben. Diese «sprachlichen» neuronalen Netze funktionieren ganz anders als die Netze, die selbstfahrende Autos möglich machen; darüber erfahren Sie mehr im vierten Kapitel. Wie hoch ist bei Computern heute schon die Sprachkompetenz? Es gibt viele Artikel, denen man nicht anmerkt, dass sie aus der Feder (nun ja, aus dem Prozessor) eines Computers stammen. Allerdings produzieren dieselben Algorithmen auch völligen Unsinn. Immerhin ist es uns in weniger als zehn Jahren gelungen, Computer von der Produktion unverständlicher Sätze zum Verfassen glaubwürdig erscheinender, gleichwohl fingierter Wikipedia-Artikel voranzutreiben. Wie schnell schreiten diese Entwicklungen voran? Bedeutet die Tatsache, dass Computer (gelegentlich) perfekte Texte schreiben auch, dass sie verstehen, was sie schreiben? Dass sie mit Bedeutung umgehen können? Dass ich bald meinen Job als Autor verliere, weil ein neuronales Netz viel schneller schreibt, als ich es jemals könnte?

Da wir gerade über erstaunlicherweise automatisierbare Berufe sprechen: Auch Künstler sind in Gefahr. Computer können Musikstücke komponieren, die selbst Kenner nicht von Bachs Originalwerken zu unterscheiden vermögen. Sie können Gemälde erschaffen, die die allgemeine Öffentlichkeit (okay, etwa dreißig Leute im Internet) für künstlerisch ebenso wertvoll halten wie die Meisterwerke auf heutigen Kunstmessen. Oder nehmen wir etwas, das unserem alltäglichen Leben näher liegt: Dieselben neuronalen Netze produzieren Porträtfotos von Menschen, die nicht existieren, und sie können sogar komplette Videoclips erfinden. Bildmaterial war eines der wenigen Dinge, auf das wir bisher vertrauen konnten – wenn man von der Bearbeitung mit Photoshop absieht. Wie schnell wird die Veränderung voranschreiten? Welche Konsequenz sollen wir daraus ziehen? Und bedeutet diese Entwicklung, dass Computer, jetzt, da sie Kunst produzieren können, auch kreativ sind? Das könnte besorgniserregend sein. Könnten Computer diese Kreativität dann nicht auch für die Überlegung nutzen, dass die beste Lösung für eine Vielzahl von Problemen lautet: Weg mit dieser Menschheit? Ganz so schnell geht es nicht, aber es ist gut zu wissen, warum das noch nicht möglich ist. Warum ich davon ausgehe, dass wir uns vorläufig nur um unsere eigenen Fehler sorgen müssen, nicht um einen bösartigen Computer, der es auf uns abgesehen hat. All das kommt im fünften Kapitel zur Sprache.

In diesen Kapiteln über neuronale Netze erfahren Sie auch etwas über die vielfältigen Limitierungen der gegenwärtigen Technologien. Sie erweisen sich als risikoreich, weil wir sie leicht aus den Augen verlieren. Sie können zu Autounfällen, unberechtigten Verurteilungen und zu systematischer Diskriminierung führen. Das gilt umso mehr, wenn wir künstliche Intelligenz zu sehr wie menschliche Intelligenz behandeln. Dann beginnen wir uns vor Dingen zu fürchten, zu denen Computer überhaupt nicht in der Lage sind, zum Beispiel vor der Übernahme der Weltherrschaft – und übersehen dabei, wo die tatsächlichen Risiken liegen.

Die größte Gefahr künstlicher Intelligenz besteht in unserem Umgang mit ihr. Erstens versetzen uns Computer in die Lage, größere Gruppen besser zu kontrollieren. So ermöglichen sie es beispielsweise China, die Uiguren mit Hilfe von Gesichtserkennung zu unterdrücken. In einer etwas weniger grausamen Form sorgt künstliche Intelligenz dafür, dass es Unternehmen wie Facebook und Google als lohnend erachten, große Datenmengen über uns zu speichern, und sie sorgt dafür, dass Mitarbeiter von Apple Teile unserer Gespräche mithören. Die Gefahr der künstlichen Intelligenz beruht aber auch auf unserer Neigung, das, was ein Computer ausspuckt, unhinterfragt zu übernehmen, unabhängig davon, welche impliziten Diskriminierungen oder andere unliebsamen Vorgehensweisen wir unbewusst in ihn einprogrammiert haben.

Während ich in den Kapiteln über neuronale Netze nur kurz auf diese Beschränkungen eingehe, komme ich im sechsten und letzten Kapitel noch einmal ausführlich darauf zurück. In diesem Kapitel verschaffen wir uns einen Überblick über die aktuelle Technologie und unseren Umgang mit ihr. Was erwarten wir uns von einer Welt voll künstlicher Intelligenz? Glauben Sie nun, da Sie wissen, wie künstliche Intelligenz funktioniert, immer noch, dass Ihr Arbeitsplatz gefährdet ist? Müssen wir uns vor dem Einsatz von Computern zur Kriegsführung fürchten? Werden wir zukünftig von algorithmischen Fake News überflutet? Ist zu erwarten, dass Computer jemals so intelligent werden wie wir?

Oder erscheint uns die Zukunft in einem rosigeren Licht? Bringt künstliche Intelligenz nicht gerade allerlei Vorteile mit sich? Erhoffen Sie sich weniger langweilige, routinemäßige Tätigkeiten am Arbeitsplatz und mehr kreative Herausforderungen? Glauben Sie, dass Computer die Welt sicherer machen werden, weil wir mit ihrer Hilfe die Welt um uns herum besser im Auge behalten und die Folgen unseres Verhaltens besser vorhersehen können? Dass wir dank der Algorithmen, die Krankheiten schon in einem Stadium aufspüren, in dem Ärzte sie niemals gefunden hätten, gesünder sein werden als je zuvor?

Zweifellos wird die Zukunft in einer Mischung aus positiven und negativen Seiten bestehen. Neue spezifische Technologien lassen sich kaum vorhersagen, also erwarten Sie nicht, hier zu erfahren, wie die nächste technische Spielerei aussehen wird. Wir können jedoch sehen, wovon unsere Zukunft mit Computern abhängt. Denn wie man es auch dreht und wendet, diese Zukunft wird von künstlicher Intelligenz durchdrungen sein. Höchste Zeit, sie besser in den Griff zu bekommen. Wie schon erwähnt, beginnen wir mit dem Innenleben Ihres Laptops, Ihres Smartphones oder Ihrer Smartwatch, dort, wo all diese Technologie installiert ist.

Terminologie

Falls Sie sich fragen, was ein Wort wie «Algorithmus» genau bedeutet, haben Sie hier eine kurze Liste der wichtigsten Begriffe.

Algorithmus: eine Reihe von Anweisungen, denen ein Computer folgt (oder denen Sie folgen). Jede schrittweise Abfolge von Anweisungen fällt darunter; auch ein Rezept kann also als Algorithmus verstanden werden, obwohl man das Wort in aller Regel für mathematische Instruktionen in einem Computerprogramm verwendet.

Künstliche Intelligenz: Algorithmen, die (menschliche) Intelligenz nachzubilden versuchen, zum Beispiel die Fähigkeit, Schach zu spielen, Gegenstände zu erkennen oder Texte zu schreiben.

Selbstlernender Algorithmus/Machine Learning: ein Algorithmus, der Voraussagen trifft, die anschließend anhand von Daten geprüft und verbessert werden. Beim Eierkochen sagt er beispielsweise die Kochzeit anhand der Größe des Eis voraus. Ein solcher Algorithmus ist dann selbstlernend, wenn sich die Prognose der Kochzeit verlängert, sofern das Ei nach der vorausgesagten Kochzeit noch nicht gar ist.

Neuronale Netze: eine besondere Art eines selbstlernenden Algorithmus, der vom Gehirn inspiriert ist. Neuronale Netze sind für fast alle Fortschritte innerhalb der künstlichen Intelligenz in den letzten Jahren verantwortlich. Sie werden im dritten Kapitel ausführlich erläutert; bei allen Algorithmen aus dem dritten, vierten und fünften Kapitel handelt es sich um Typen neuronaler Netze.

Deep Learning: eine Bezeichnung für neuronale Netze, die sehr groß sind, insbesondere weil sie aus vielen Schichten (aufeinander aufbauenden Berechnungsschritten, für weitere Erläuterungen siehe drittes Kapitel) bestehen.

1

ZAHNRAD, STROM ODER LICHTTEILCHEN. UNTER DER MOTORHAUBE IHRES COMPUTERS

Im Juni 1991 war der erste Entwurf einer Rechenmaschine endlich funktionsbereit. Und gleich um Jahrhunderte veraltet, denn diese Maschine war schon von Charles Babbage, einem Mathematiker des viktorianischen Englands, erfunden worden. Anlässlich seines zweihundertsten Geburtstages baute das Londoner Science Museum seine mechanische, ganz aus Zahnrädern bestehende Rechenmaschine nach. Babbage hatte sie aus purem Frust über die «Computer» seiner Zeit ersonnen: Das waren Menschen, oft Frauen, die per Hand Berechnungen für Wissenschaftler, Streitkräfte und andere Institutionen durchführten. Selbst die NASA beschäftigte um 1950 noch ein ganzes Team von Frauen, um die Flugbahn von Raketen zu berechnen. Babbage hatte diese «Rechner» schon in der ersten Hälfte des 19. Jahrhunderts satt, weil Menschen nun einmal Rechenfehler machen. Derartige Fehler wollte er vermeiden, indem er das Rechnen einer Maschine übertrug. Dies sollte auch später eines der wichtigen Motive zur Entwicklung der künstlichen Intelligenz sein: die Überzeugung, dass eine Maschine mehr Informationen fehlerfrei verarbeiten kann als der Mensch. Deshalb entwarf Babbage also den ersten, und wie wir heute wissen, funktionstüchtigen Rechner. Wenig später brachte er auch die ersten Entwürfe für einen mechanischen Computer zu Papier, für den seine Zeitgenossin Ada Lovelace das erste Computerprogramm schrieb.

Die Produktion dieser riesigen Rechenmaschine, die in der folgenden Abbildung zu sehen ist, dauerte alles in allem sechs Jahre. Dafür benötigte man 8000 Komponenten, die zu Babbages Zeiten nicht (exakt genug) angefertigt werden konnten. Selbst 1990 stellte der Bau seiner Maschine noch eine große Herausforderung dar. Es war schwierig, alle Räder so einzupassen, dass sie gut ineinandergriffen. Bei den ersten Tests verhakte sich die Maschine immer wieder irgendwo in ihren Tausenden von Zahnrädern, so dass ihr die Techniker mit einem Schraubenzieher oder einem Brecheisen zu Leibe rücken mussten. Und auch bei der Eröffnung der Ausstellung im Juni 1991 versagte die Maschine. Vor den Augen der Presse wurde begeistert der Hebel nach links gelegt, woraufhin sich die Zahnräder sogar bewegten, doch die Maschine lief in einer Art Leerlauf; es wurde nichts berechnet. Das glückte erst am 29. November 1991.

Babbages Difference Engine No. 2 in der Sammlung des Londoner Science Museum.

Wie funktioniert dieses Monstrum? Die Zahnräder greifen so ineinander, dass sie addieren und subtrahieren können. In der Abbildung unten sehen Sie eine vereinfachte Version der Maschine. Schauen Sie sich die Abbildung einmal an: Ziel ist es, die 3 auf dem linken Zahnrad zu der 4 auf dem rechten Zahnrad zu addieren. Das tut man, indem man das linke Zahnrad im Uhrzeigersinn dreht; wenn Sie genau hinsehen, sehen Sie, dass jede Lücke zwischen den Zähnen für eine andere Zahl steht, also drehen wir das linke Rad drei Schritte weiter. Was passiert dann? Das linke Zahnrad zeigt einen geringen Wert, da der schwarze Pfeil stehen bleibt, die Zahlen sich jedoch Zahnlücke für Zahnlücke nach links wegbewegen, von 3 auf 2, dann auf 1 und schließlich auf 0. Das rechte Zahnrad dreht sich hierbei in die entgegengesetzte Richtung; gegen den Uhrzeigersinn. Der schwarze Pfeil bleibt auch hier stehen, die Zahlen darunter verschieben sich nun nach rechts: von 4 auf 7. Voilà, schon hat man mit Hilfe der Zahnräder eine Rechenaufgabe gelöst!

Zwei Zahnräder aus der Difference Engine No. 2.

Sie können auf diese Weise auch subtrahieren (4–3), aber dann müssen sich beide Zahnräder im Uhrzeigersinn drehen. Das ist allerdings nur mit einem zusätzlichen Zahnkranz dazwischen möglich. In diesem Fall verringert sich der Wert des linken Zahnrads, in gleichem Maße wie bei der Addition. Da sich das rechte Zahnrad nun aber ebenfalls nach links dreht, verringert sich hier der Wert auf 1. Entsprechend arbeitet auch die echte Difference Engine. Wenn Sie wissen möchten, wie das mit dem zusätzlichen Rad funktioniert, dann scannen Sie den QR-Code mit Ihrem Smartphone oder folgen Sie dem hinten im Buch angegebenen Link.

Babbages Rechenmaschine kann also addieren und subtrahieren; wiederholt man diese Berechnungen jedoch geschickt, kann sie auch multiplizieren, dividieren, Wurzeln ziehen und vieles andere mehr. Babbage war seiner Zeit weit voraus. Noch mehr traf das auf seinen nächsten Entwurf zu: die Analytical Machine. Sein mechanischer Computer ist nie gebaut worden, aber er wäre mit einer ähnlichen Zahnradkonstruktion ein vollwertiger, programmierbarer Computer gewesen. Der Speicher von 16,2 kB war zwar etwas klein, und man musste Lochkarten – Papierbögen mit Lochreihen – zur Ein- und Ausgabe verwenden, aber davon abgesehen war dieser Entwurf zu mehr (Rechen-)Operationen in der Lage als die ersten elektronischen Computer. Im Prinzip hätte man darauf Snake spielen oder mit Word arbeiten können. Das Einzige, was eine solche Maschine brauchte, waren die richtigen Instruktionen, dann erledigten die Zahnräder den Rest. Dass diese Programme letztendlich allesamt rein mathematisch arbeiteten, lässt sich an Babbages Maschinen dank der Zahlen auf den bronzenen Zahnrädern sehr gut erkennen.

Freihändig! Elektrische Impulse in modernen Computern

Bis zu einem gewissen Grad funktionieren Ihr Laptop und Ihr Smartphone nicht anders als Babbages Entwurf aus dem 19. Jahrhundert. Sie führen die gleichen Berechnungen durch, verfügen über einen Speicher, um Informationen aufzubewahren, einen Prozessor, um diese Informationen zu verarbeiten, sowie Ein- und Ausgabe. Der größte Unterschied besteht darin, dass man keine riesigen Zahnräder mehr schleifen muss. Stattdessen funktioniert alles mittels Elektrizität und Chips (Schaltkreisen): dem Lebenselixier und den Schlagadern der künstlichen Intelligenz. Diese aus Drähten und Gattern bestehenden Chips, durch die Strom fließt, sind für die Möglichkeiten und Grenzen der künstlichen Intelligenz von entscheidender Bedeutung. Mit einem gewissen Grundwissen über die Funktionsweise eines Computers beziehungsweise Computerchips kann man den Unterschied zwischen einem Prozessor und unserem Gehirn leicht erkennen, und auch nachvollziehen, warum Programmierer sich einiges einfallen lassen müssen, um einen Computer dazu zu befähigen, mit Sprache zu arbeiten oder Bilder zu erfassen.

Zunächst einmal rechnen moderne Computer nicht mit einem dezimalen, sondern mit einem dualen System: 1 (es fließt Strom durch den Draht) und 0 (es fließt kein Strom durch den Draht). Ein Prozessor ist eine Ansammlung von Gattern (engl. gates), durch die dieser Strom geleitet (oder von denen er aufgehalten) wird. Es gibt drei Arten von Gattern: AND-, OR- und NOT-Gatter. Mathematisch lässt sich zeigen, dass man mit diesen drei Gattern alle möglichen Arten von Berechnungen durchführen kann, wohingegen man mit einem oder zwei Gattern kaum vom Fleck kommt. Diese Gatter tun das, was ihre Bezeichnung nahelegt: Ein AND-Gatter überträgt nur Strom, wenn in beiden angeschlossenen Drähten Strom fließt, ein OR-Gatter nur dann, wenn in einem der beiden Drähte Strom fließt, und ein NOT-Gatter überträgt nur Strom, wenn im angeschlossenen Draht kein Strom fließt. Das funktioniert mit Schaltern, wie man hier unten in der Verkabelung für ein AND-Gatter sehen kann.

Die Verkabelung für ein AND-Gatter: Der Strom fließt von oben nur zum Ausgang unten, wenn beide Schalter (A und B) geschlossen sind, also unter Strom stehen.

Es sitzen also zwei Schalter hintereinander, so dass nur dann Strom zum Ausgang fließt, wenn A und B unter Strom stehen. Ob dies geschieht oder nicht, hängt vom Programm ab, das der Computer in diesem Moment ausführt. Das Gleiche gilt für die Schalter in der Verkabelung für das OR-Gatter (links) und das NOT-Gatter (rechts).

Links die Verkabelung für ein OR-Gatter mit zwei unabhängigen Pfaden vom Eingang zum Ausgang.
Rechts die Verkabelung für ein NOT-Gatter, bei dem sich der A-Schalter gerade dann schließt, wenn kein Strom durch den Draht A läuft.

Nun wissen Sie alles, was Sie brauchen, um einen Prozessor zu entwerfen! Okay, nicht wirklich, obwohl jeder Entwurf letztlich auf diesen drei Elementen aufbaut. Durch geschicktes Kombinieren in einem Chip kann man Zahlen addieren, subtrahieren und Ähnliches. Wie das genau funktioniert, ist gewöhnungsbedürftig, für den Rest des Buches aber nicht so wichtig, also belasse ich es hier bei einem kleinen Beispiel.

Angenommen, Sie möchten die Summe von 1 + 1 berechnen. Das Ergebnis dieser Addition ist 2, aber da entweder Strom durch ein Kabel fließt oder nicht, schreibt man das im dualen Zahlensystem als 10. (In diesem System multipliziert man jedes Mal mit 2, wenn man eine Stelle nach links rückt, statt mit 10, wie wir es gewohnt sind; in diesem Fall bedeutet das: 10 ist 1 × 2 + 0 × 1 = 2 und 100 ist 1 × 2 × 2, also 4. Die folgende Abbildung zeigt, wie man das auf einen Chip schematisch übertragen kann.

1  + 1 = 10 in einem Prozessor. Links kommt der Strom an, (bei beiden, daher zwei Einsen) und über die Gatter erscheint rechts das richtige Ergebnis: oben Strom (1) und unten kein Strom (0). Nach jedem Gatter ist mit einer 1 oder 0 gekennzeichnet, ob Strom im Draht zu finden ist oder nicht.

Wie liest man diese Abbildung? Von links nach rechts, so wie der Strom durch diesen Schaltkreis fließt. Zunächst einmal gibt es auf der linken Seite zwei Drähte, für die beiden Zahlen, die man addieren möchte. Durch beide läuft Strom, also steht bei beiden Drähten eine 1. Diese zwei Eingangsdrähte schließt man an eine Reihe von Gattern an, so dass schließlich rechts das Ergebnis steht: eine Zahl mit zwei Ziffern (10). Um die linke Ziffer des Ergebnisses zu berechnen, braucht man nur ein AND-Gatter, wie oben in der Abbildung zu sehen ist. Wenn durch beide Eingangsdrähte Strom fließt, wenn man also zweimal eine 1 hat, die man addiert, dann kommt auch Strom durch das AND-Gatter. Dieser Strom liefert uns die linke Zahl in der 10, die richtige Antwort.

Für die rechte Zahl muss man (mit den vier Gattern, die Sie in der unteren Hälfte der Zeichnung sehen) dafür sorgen, dass nur dann Strom fließt, wenn durch einen der beiden ursprünglichen Drähte Strom fließt. Der Strom wird vom Eingang unten durch ein OR-Gatter und darüber durch ein AND- und dann ein NOT-Gatter geleitet, bevor die beiden Ergebnisse (von OR und NOT) zusammengefasst werden mit einem letzten AND-Gatter. Man kann sich die Zwischenergebnisse ansehen, um zu erkennen, dass man dann bei einer 0 ankommt (kein Strom), also der rechten Zahl der 10. Dieser Schaltkreis funktioniert auch für andere Rechenaufgaben: 1 + 0, 0 + 1 und 0 + 0. Aber das ist etwas für Begeisterte, denn es kann durchaus eine Weile dauern, bis man eine solche Abbildung lesen kann. Außerdem muss man die genaue Funktionsweise eines solchen Schaltkreises für den Rest des Buches nicht wirklich verstehen. Möchten Sie trotzdem mehr darüber erfahren? Dann lesen Sie eines der Bücher über Computerarchitektur, die ich in den Literaturhinweisen am Ende des Buches aufgeführt habe.

Computerprogramme schreibt man, indem man dem Prozessor mitteilt, welche Drähte Strom führen sollen. Das geschieht auf mathematische Weise. Bei den Instruktionen, die man einem Prozessor gibt, geht es um das Laden und Speichern von Daten, das Durchführen von Berechnungen und schließlich um Sprünge im Code, mit denen man die gleichen Instruktionen erneut ausführt oder Instruktionen überspringt. Zu guter Letzt werden all diese Kommandos ausgeführt, indem man die Drähte mit Strom versorgt, und die Gatter das Ihrige tun. Damit das alles gelingt, muss der Programmierer mathematisch beschreiben, was er tun will. Unter Verwendung von Einsen und Nullen, obwohl in einem Laptop keine Ziffern herumspuken. Dieses Programmieren mit Einsen und Nullen verschwindet vielleicht mit der Zeit beim Übergang zu einer neuen Art von Computern; Sie werden aber sehen, die Mathematik bleibt.

Jenseits des Stromes: Eine kurze Bemerkung zu Quantencomputern

Hin und wieder hört man in den Nachrichten davon: Es werden brandneue Computer entwickelt, sogenannte «Quantencomputer». Eine Weile wird es wohl noch dauern, bis wir sie im Alltag nutzen können, aber ihr Entstehungsprozess ist schon weit genug fortgeschritten, dass es einige funktionstüchtige Exemplare gibt und eine ganze Reihe von Vorschlägen dafür, wie man größere Quantencomputer konzipieren könnte. Wir wissen also verhältnismäßig gut, wie diese Computer arbeiten werden, wenn es uns eines Tages gelingen sollte, leistungsfähige Versionen davon in Gang zu bringen.

entweder1oder0