Vorwort

Warum Sie dieses Buch genau jetzt lesen sollten

In diesem Buch geht es um die Vergangenheit, die Gegenwart und die Zukunft unserer Bestrebungen, Intelligenz zu verstehen und zu erschaffen. Das ist ein wichtiges Thema, denn die KI (Künstliche Intelligenz, auch AI für Artificial Intelligence) ist unserer Tage nicht nur bereits allgegenwärtig, sondern wird auch und vor allem die wohl wichtigste Technologie der Zukunft sein. Die Weltmächte werden sich dessen langsam bewusst – und die größten Unternehmen wissen es schon seit geraumer Zeit. Wir können nicht genau sagen, wie und mit welchem Tempo sich diese Technologie weiterentwickeln wird. Aber eines ist klar: Wir müssen uns darauf vorbereiten, dass Maschinen die menschliche Fähigkeit zur Entscheidungsfindung‌ eines Tages vielleicht übertreffen werden. Welche Folgen hätte das?

Alles, was unsere Zivilisation hervorgebracht hat, ist das Ergebnis unserer Intelligenz‌. Wenn wir also Zugang zu einer deutlich höheren Intelligenz hätten, wäre dies zweifellos das größte Ereignis der Menschheitsgeschichte. In diesem Buch wird erklärt, warum es sich dabei auch um das letzte Ereignis handeln könnte – und wie wir das verhindern können.

Was Sie erwartet

Dieses Buch ist in drei große Themenbereiche unterteilt: Der erste Teil in den Kapiteln 1 bis 3 beschäftigt sich mit menschlicher und maschineller Intelligenz an sich. Dabei wird keine technische Vorbildung vorausgesetzt. Wenn Sie tiefer in die Materie einsteigen wollen, finden Sie eine Erläuterung der Grundkonzepte moderner KI-Systeme‌ in den Anhängen A bis D. Der zweite Teil, Kapitel 4 bis 6, behandelt einige der Probleme, die aus intelligenten Maschinen erwachsen. Das größte davon ist, wie wir es schaffen können, jederzeit die Kontrolle über Maschinen zu behalten, die mächtiger sind als wir. Im dritten Teil in den Kapiteln 7 bis 10 wird ein neuer Ansatz der KI-Forschung vorgestellt, der garantieren soll, dass die Maschinen dem Menschen auf alle Zeit nützlich und dienlich sind. Das Buch richtet sich an alle interessierten Leserinnen und Leser. Ich hoffe allerdings, dass es auch von vielen Spezialisten der künstlichen Intelligenz gelesen wird und sie dazu anregt, ihre grundlegenden Anschauungen zu überdenken.

Danksagung

An der Entstehung dieses Buchs waren viele Menschen beteiligt. Dazu gehören Paul Slovak, Lektor bei Viking, sowie Laura Stickney, Lektorin bei Penguin, mein Literaturagent John Brockman, der mich zum Schreiben ermutigt hat, Jill Leovy und Rob Reid, die ein Füllhorn an nützlichem Feedback für mich hatten, und weitere Leser der ersten Entwürfe, insbesondere Ziyad Marar, Nick Hay, Toby Ord, David Duvenaud, Max Tegmark und Grace Cassy. Caroline Jeanmaire war eine unschätzbare Hilfe beim Sammeln und Zusammenstellen der unzähligen Verbesserungsvorschläge der Testleser und Martin Fukui hat sich für mich um die Bildrechte gekümmert.

Die wesentlichen technischen Konzepte in diesem Buch habe ich gemeinsam mit Mitgliedern des Center for Human-Compatible AI in Berkeley entwickelt. Besonders erwähnen möchte ich Tom Griffiths, Anca Dragan, Andrew Critch, Dylan Hadfield-Menell, Rohin Shah und Smitha Milli. Das Center wird auf bewundernswerte Weise von Mark Nitzberg und Rosie Campbell geleitet und von der Open Philanthropy Foundation großzügig mit finanziellen Mitteln ausgestattet.

Ramona Alvarez und Carine Verdeau haben dafür gesorgt, dass während der gesamten Entstehungsgeschichte des Buchs alles glatt vonstattenging. Meine unglaubliche Ehefrau Loy und unsere gemeinsamen Kinder Gordon, Lucy, George und Isaac haben mit ihrer unermesslichen Liebe, Nachsicht und Unterstützung zum Gelingen und Abschluss dieses Projekts beigetragen.

Anmerkungen

Kapitel 1

  1. Erste Auflage des Lehrbuchs zur KI, das Peter Norvig (jetzt Forschungsleiter bei Google) und ich gemeinsam verfasst haben: Russell, Stuart und Norvig, Peter, Künstliche Intelligenz: Ein moderner Ansatz, Pearson Studium; 3., aktualisierte Auflage (2012). [Zum Text]

  2. Robinson entwickelte den Resolution-Algorithmus, der bei genügend Zeit jede logische Konsequenz einer Menge logischer Aussagen erster Ordnung beweisen kann. Im Gegensatz zu vorherigen Algorithmen müssen die Behauptungen nicht in Aussagenlogik umgewandelt werden. Robinson, J. Alan, »A machine-oriented logic based on the resolution principle«, Journal of the ACM 12 (1965): 23–41. [Zum Text]

  3. Arthur Samuel, ein amerikanischer Wegbereiter des Computerzeitalters, begann seine Karriere bei IBM. In seiner Abhandlung zum Dame-Spiel wurde erstmals der Begriff Machine Learning verwendet. Allerdings hatte Alan Turing bereits 1947 von »einer Maschine, die aus Erfahrung lernen kann« gesprochen. Samuel, Arthur, »Some studies in machine learning using the game of checkers«, IBM Journal of Research and Development 3 (1959): 210–29. [Zum Text]

  4. Dieser »Lighthill Report« läutete das Ende der Förderung der KI-Forschung ein (außer an den Universitäten von Edinburgh und Sussex): Lighthill, Michael James, »Artificial intelligence: A general survey«, in Artificial Intelligence: A Paper Symposium (Science Research Council of Great Britain, 1973). [Zum Text]

  5. Der CDC 6600 nahm einen kompletten Raum ein und würde heute umgerechnet 20 Millionen US-Dollar kosten. Er war für damalige Verhältnisse extrem leistungsfähig, aber ein modernes iPhone bietet eine Million Mal mehr Leistung. [Zum Text]

  6. Nach der Niederlage von Kasparow gegen Deep Blue sagten ein Kommentator und mehr voraus, dass es noch 100 Jahre dauern würde, bis dies auch bei Go möglich wäre: Johnson, George, »To test a powerful computer, play an ancient game«, The New York Times, 29. Juli 1997. [Zum Text]

  7. Pickover, Clifford A: Vom Big Bang zur Quantenauferstehung. 250 Meilensteine in der Geschichte der Physik (Bielo Verlagsgesellschaft mbH, 2014). [Zum Text]

  8. Eine lesenswerte Geschichte über die Entwicklung der Atomtechnik hat Richard Rhodes mit The Making of the Atomic Bomb verfasst (Simon & Schuster, 1987). Deutsche Ausgabe: Die Atombombe oder Die Geschichte des 8. Schöpfungstages (Greno, 1989). [Zum Text]

  9. Ein einfacher Algorithmus für überwachtes Lernen muss nicht diesen Effekt haben, sofern er nicht Teil eines A/B-Test-Frameworks ist (wie im Onlinemarketing üblich). Bandit-Algorithmen und Algorithmen für Reinforcement Learning haben diesen Effekt, wenn sie mit einer expliziten Repräsentation des Nutzerzustands oder einer impliziten Repräsentation der Historie der Nutzerinteraktionen agieren. [Zum Text]

  10. Es gibt Stimmen, die Konzerne, bei denen der Profit an vorderste Stelle steht, bereits als außer Kontrolle geratene künstliche Entitäten bezeichnen. Dazu gehören Charles Stross in »Dude, you broke the future!« (Keynote, 34. Chaos Communications Congress, 2017) und Ted Chiang in »Silicon Valley is turning into its own worst fear«, Buzzfeed vom 18. Dezember 2017. Daniel Hillis befasst sich näher damit in »The first machine intelligences«, Possible Minds: Twenty-Five Ways of Looking at AI, Hrsg. John Brockman (Penguin Press, 2019). [Zum Text]

  11. Zu seiner Zeit war Wieners Artikel eine seltene Ausnahme von der vorherrschenden Ansicht, dass jeder technologische Fortschritt eine gute Sache sei: Norbert Wiener, »Some moral and technical consequences of automation«, Science 131 (1960): 1355–58. [Zum Text]

Kapitel 2

  1. Santiago Ramón y Cajal schlug 1894 synaptische Veränderungen als Sitz des Lernens vor, aber erst Ende der 1960er wurde diese Hypothese experimentell bestätigt. Siehe Timothy Bliss und Terje Lomo, »Long-lasting potentiation of synaptic transmission in the dentate area of the anaesthetized rabbit following stimulation of the perforant path«, Journal of Physiology 232 (1973): 331–56. [Zum Text]

  2. Eine kurze Einführung bietet James Gorman in »Learning how little we know about the brain«, The New York Times, 10. November 2014. Siehe außerdem Siegfried, Tom, »There’s a long way to go in understanding the brain«, ScienceNews, 25. Juli 2017. Eine Sonderausgabe der Zeitschrift Neuron im Jahr 2017 (Ausg. 94, S. 933–1040) bietet einen guten Überblick über die vielen verschiedenen Herangehensweisen an das Verständnis des Gehirns. [Zum Text]

  3. Die An- oder Abwesenheit von Bewusstsein – von subjektivem Erleben – macht gewiss einen Unterschied bei der moralischen Betrachtung von Maschinen. Wenn wir jemals genug wissen, um bewusste Maschinen zu konstruieren oder zu erkennen, dass wir dies getan haben, entstünden viele wichtige ethische Probleme, auf die wir praktisch nicht vorbereitet sind. [Zum Text]

  4. Der folgende Artikel gehört zu den ersten, die eine deutliche Verbindung zwischen Algorithmen für verstärkendes Lernen und neurophysiologischen Aufzeichnungen herstellen: Schultz, Wolfram, Dayan, Peter und Montague, P. Read, »A neural substrate of prediction and reward«, Science 275 (1997): 1593–99. [Zum Text]

  5. Untersuchungen mit intrakranialer Stimulation wurden in der Hoffnung durchgeführt, diverse psychische Leiden zu heilen. Siehe zum Beispiel Heath, Robert, »Electrical self-stimulation of the brain in man«, American Journal of Psychiatry 120 (1963): 571–77. [Zum Text]

  6. Ein Beispiel für eine Spezies, die aufgrund von Sucht vor der Selbstauslöschung stehen könnte: Voirin, Bryson, »Biology and conservation of the pygmy sloth, Bradypus pygmaeus«, Journal of Mammalogy 96 (2015): 703–7. [Zum Text]

  7. Der Baldwin-Effekt in der Evolution wurde den meisten Angaben zufolge zuerst in diesem Artikel beschrieben: Baldwin, James, »A new factor in evolution«, American Naturalist 30 (1896): 441–51. [Zum Text]

  8. Die Grundidee hinter dem Baldwin-Effekt findet sich auch in dieser Arbeit: Morgan, Conwy Lloyd, Habit and Instinct (Edward Arnold, 1896). [Zum Text]

  9. Eine moderne Analyse und Computerumsetzung des Baldwin-Effekts: Hinton, Geoffrey und Nowlan, Steven, »How learning can guide evolution«, Complex Systems 1 (1987): 495–502. [Zum Text]

  10. Weitere Erkenntnisse zum Baldwin-Effekt aus einem Computermodell, das die Entwicklung der internen Schaltkreise zum Signalisieren von Belohnungen berücksichtigt: Ackley, David und Littman, Michael, »Interactions between learning and evolution« in Artificial Life II, Hrsg. Christopher Langton et al. (Addison-Wesley, 1991). [Zum Text]

  11. Ich verweise hier auf die Wurzeln unseres modernen Intelligenzbegriffs, statt das antike griechische Konzept nous zu beschreiben, das viele Bedeutungen hatte. [Zum Text]

  12. Aristoteles’ Nikomachische Ethik, Übersetzung von T. E. Rolfes (Verlag F. Meiner, 1911): 3. Buch, Kapitel 5. [Zum Text]

  13. Cardano, einer der ersten Mathematiker Europas, die negative Zahlen als möglich erachteten, entwickelte eine frühe mathematische Abhandlung zur Wahrscheinlichkeit in Spielen. Er starb 1576, 87 Jahre bevor seine Arbeit gedruckt wurde: Cardano, Gerolamo, Liber de ludo aleae (Lyons, 1663). [Zum Text]

  14. Arnaulds Arbeit, die zunächst anonym veröffentlicht wurde, wird häufig als Logik von Port-Royal bezeichnet: Arnauld, Antoine, La logique, ou l’art de penser (Chez Charles Savreux, 1662). Siehe auch Pascal, Blaise, Pensées (Chez Guillaume Desprez, 1670). [Zum Text]

  15. Das Konzept des Nutzens: Bernoulli, Daniel, »Specimen theoriae novae de mensura sortis«, Proceedings of the St. Petersburg Imperial Academy of Sciences 5 (1738): 175–92. Bernoullis Nutzenbegriff liegen Gedanken über den Händler Sempronius zugrunde, der überlegte, ob er eine wertvolle Fracht mit einem oder zwei Schiffen transportieren sollte, wenn für jedes Schiff eine Wahrscheinlichkeit von 50 Prozent besteht, während der Reise zu sinken. Der monetäre Erwartungswert der beiden Lösungen ist identisch, aber Sempronius bevorzugte eindeutig die Lösung mit zwei Schiffen. [Zum Text]

  16. Die meisten Berichte besagen, dass von Neumann diese Architektur nicht selbst erfunden hat, aber sein Name steht auf dem frühen Entwurf eines einflussreichen Berichts, in dem der EDVAC-Computer mit Programmspeicher beschrieben wird. [Zum Text]

  17. Die Arbeiten von Morgenstern und von Neumann bilden auf vielerlei Weise die Grundlage der modernen Wirtschaftstheorie: von Neumann, John und Morgenstern, Oskar, Spieltheorie und wirtschaftliches Verhalten (Physica, 1973). [Zum Text]

  18. Der Vorschlag, dass der Nutzen die Summe der abgezinsten Belohnungen ist, wurde als mathematisch bequeme Hypothese von Paul Samuelson in »A note on measurement of utility« gemacht. Review of Economic Studies 4 (1937): 155–61. Wenn s0, s1, … eine Zustandsabfolge ist, dann beträgt der Nutzen in diesem Modell U(s0, s1, …) = tɣtR(st), wobei ɣ ein Abzinsungsfaktor ist und R eine Belohnungsfunktion, die die Attraktivität des Zustands beschreibt. Die ungefilterte Anwendung dieses Modells stimmt nur selten mit einer Beurteilung echter Personen über die Attraktivität gegenwärtiger und künftiger Belohnungen überein. Eine ausführliche Analyse nehmen Shane Frederick, George Loewenstein und Ted O’Donoghue vor: »Time discounting and time preference: A critical review«, Journal of Economic Literature 40 (2002): 351–401. [Zum Text]

  19. Maurice Allais, ein französischer Wirtschaftswissenschaftler, schlug ein Entscheidungsszenario vor, in dem Menschen immer wieder gegen die von-Neumann-Morgenstern-Axiome zu verstoßen scheinen: Allais, Maurice, »Le comportement de l’homme rationnel devant le risque: Critique des postulats et axiomes de l’école américaine«, Econometrica 21 (1953): 503–46. [Zum Text]

  20. Für eine Einführung in die nicht quantitative Entscheidungsanalyse siehe Wellman, Michael, »Fundamental concepts of qualitative probabilistic networks«, Artificial Intelligence 44 (1990): 257–303. [Zum Text]

  21. Ich gehe in Kapitel 9 detailliert auf den Beweis für menschliche Irrationalität ein. Zu den Standardwerken gehören: Allais, »Le comportement«, Ellsberg, Daniel, Risk, Ambiguity, and Decision (Doktorarbeit, Harvard University, 1962), Tversky, Amos und Kahneman, Daniel, »Judgment under uncertainty: Heuristics and biases«, Science 185 (1974): 1124–31. [Zum Text]

  22. Es sollte klar sein, dass es sich um ein Gedankenexperiment handelt, das nicht in die Praxis umgesetzt werden kann. Wahlmöglichkeiten bezüglich unterschiedlicher Zukunftsversionen werden niemals mit allen Details präsentiert und Menschen sind niemals in der Lage, all diese Versionen vor einer Entscheidung genau zu betrachten und zu überdenken. Stattdessen gibt es nur kurze Zusammenfassungen (Bibliothekar oder Bergarbeiter). Bei einer solchen Entscheidung wird man eigentlich gebeten, zwei Wahrscheinlichkeitsverteilungen über vollständige Varianten der Zukunft miteinander zu vergleichen, von denen die eine mit der Auswahl »Bibliothekar« und die andere mit der Auswahl »Bergarbeiter« beginnt; dabei werden für jede Verteilung optimale Aktionen in jeder der Zukunftsentwürfe durch die entscheidende Person vorausgesetzt. Ich muss Ihnen nicht verraten, dass das nicht einfach ist. [Zum Text]

  23. Die erste Erwähnung einer randomisierten Strategie für Spiele erscheint in Montmort, Pierre Rémond de, Essay d’analyse sur les jeux de hazard, 2. Auflage, (Chez Jacques Quillau, 1713). Das Buch benennt einen gewissen Monsieur de Waldegrave als Quelle einer optimalen randomisierten Lösung für das Kartenspiel Le Her. Mehr über Waldegrave verrät David Bellhouse in »The problem of Waldegrave«, Electronic Journal for History of Probability and Statistics 3 (2007). [Zum Text]

  24. Das Problem wird vollständig definiert, indem die Wahrscheinlichkeit angegeben wird, mit der Alice in jedem der vier Fälle einen Punkt macht: wenn sie auf Bobs rechte Seite zielt und er nach rechts oder links springt und wenn sie auf seine linke Seite schießt und er nach rechts oder links hechtet. Für diesen Fall betragen die Wahrscheinlichkeiten 25, 70, 65 und 10 Prozent. Angenommen, Alice’ Strategie besteht darin, mit der Wahrscheinlichkeit p auf Bobs rechte und mit der Wahrscheinlichkeit 1 – p auf seine linke Seite zu zielen, während Bob mit einer Wahrscheinlichkeit von q nach rechts und mit einer Wahrscheinlichkeit von 1 – q nach links springt. Die Auszahlung für Alice beträgt UA = 0,25pq + 0,70 p(1 – q) + 0,65 (1 – p)q + 0,10(1 – p) (1 – q), die für Bob dagegen UB = –UA. Im Gleichgewicht ist UA/p = 0 und UB/q = 0, woraus sich ergibt: p = 0,55 und q = 0,60. [Zum Text]

  25. Das ursprüngliche spieltheoretische Problem wurde von Merrill Flood und Melvin Dresher bei der RAND Corporation vorgestellt. Tucker sah die Auszahlungsmatrix bei einem Besuch im Büro und schlug vor, sie mit einer Geschichte zu versehen. [Zum Text]

  26. Spieltheoretiker sagen üblicherweise, dass Alice und Bob miteinander kooperieren (nicht reden) oder defektieren (den Komplizen verraten) können. Ich halte das für verwirrend, denn »miteinander kooperieren« ist keine Entscheidung, die ein Agent allein treffen kann, und da man im normalen Sprachgebrauch häufig davon gesprochen, mit der Polizei zu kooperieren, um eine mildere Strafe zu erwirken usw. [Zum Text]

  27. Eine interessante, auf Vertrauen basierende Lösung für das Gefangenendilemma und andere Spiele zeigen Joshua Letchford, Vincent Conitzer und Kamal Jain in »An ‘ethical’ game-theoretic solution concept for two-player perfect-information games« auf: Proceedings of the 4th International Workshop on Web and Internet Economics, Hrsg. Christos Papadimitriou und Shuzhong Zhang (Springer, 2008). [Zum Text]

  28. Ursprung der Tragik der Allmende: Lloyd, William Forster, Two Lectures on the Checks to Population (Oxford University, 1833). [Zum Text]

  29. Moderne Version im Kontext der globalen Umweltlehre: Hardin, Garrett, »The tragedy of the commons«, Science 162 (1968): 1243–48. [Zum Text]

  30. Es ist gut möglich, dass der Versuch, intelligente Maschinen auf Basis von chemischen Reaktionen oder biologischen Zellen zu konstruieren, etwas geschaffen hätte, das sich als Implementierung einer Turingmaschine mit nicht herkömmlichen Werkstoffen erwiesen hätte. Ob ein Objekt ein Allzweckcomputer ist, hat nichts mit seiner materiellen Beschaffenheit zu tun. [Zum Text]

  31. Turings bahnbrechender Artikel definierte mit dem heute als Turingmaschine bekannten Konstrukt die Basis der modernen Informatik. Das Entscheidungsproblem im Titel befasst sich mit dem Entscheidungsverfahren in der Prädikatenlogik: Turing, Alan, »On computable numbers, with an application to the Entscheidungsproblem«, Proceedings of the London Mathematical Society, Band 2, 42 (1936): 230–65. [Zum Text]

  32. Eine gute Aufstellung der Forschung zur negativen Kapazität stammt von einem ihrer Erfinder: Salahuddin, Sayeef, »Review of negative capacitance transistors«, in International Symposium on VLSI Technology, Systems and Application (IEEE Press, 2016). [Zum Text]

  33. Eine sehr viel bessere Erklärung der Quantenberechnung liefert Scott Aaronson in Quantum Computing since Democritus (Cambridge University Press, 2013). [Zum Text]

  34. Diese Abhandlung traf die klare, komplexitätstheoretische Unterscheidung zwischen klassischen und Quantenberechnungen: Bernstein, Ethan und Vazirani, Umesh, »Quantum complexity theory«, SIAM Journal on Computing 26 (1997): 1411–73. [Zum Text]

  35. Der folgende Artikel eines bekannten Physikers ist eine gute Einführung in den aktuellen Stand von Wissen und Technologie: Preskill, John, »Quantum computing in the NISQ era and beyond«, arXiv: 1801.00862 (2018). [Zum Text]

  36. Mehr über die maximale rechnerische Fähigkeit eines Ein-Kilogramm-Objekts: Lloyd, Seth, »Ultimate physical limits to computation«, Nature 406 (2000): 1047–54. [Zum Text]

  37. Ein Beispiel für die Behauptung, der Mensch sei die Krone der körperlich erreichbaren Intelligenz, stammt von Kevin Kelly in »The myth of a superhuman AI«, Wired, 25. April 2017: »Wir tendieren zu der Annahme, dass es etwas viel Größeres gibt, als wir selbst es sind, so wie wir weit über den Ameisen stehen. […] Welchen Beweis gibt es dafür, dass nicht wir die Krönung sind?« [Zum Text]

  38. Falls Sie sich fragen, ob man das Halteproblem nicht einfach lösen kann, indem man das erste Programm startet und abwartet, ob es zu einem Ende gelangt: Das klappt nicht, denn wir wissen ja nicht, wann es enden sollte. Selbst nach einer Million Jahren ist nicht klar, ob das Programm in einer Endlosschleife gefangen ist oder einfach noch immer rechnet. [Zum Text]

  39. Der Beweis, dass das Halteproblem unentscheidbar ist, beeindruckt durch seine Eleganz. Die Frage lautet: Gibt es ein Programm SchleifenPrüfung(P,X), das für jedes Programm P und jede Eingabe X in endlicher Zeit korrekt entscheidet, ob P für die Eingabe X anhält und ein Ergebnis liefert oder endlos läuft? Nehmen wir an, SchleifenPrüfung sei ein reales Programm. Jetzt schreiben wir ein Programm Q, in dem SchleifenPrüfung als Unterprogramm aufgerufen wird, an das Q und X als Eingaben übergeben werden, und das dann das Gegenteil von dem tut, was SchleifenPrüfung(Q,X) vorhersagt. Wenn SchleifenPrüfung also vorhersagt, dass Q anhält, tut Q das nicht und umgekehrt. Da die Annahme, dass SchleifenPrüfung ein reales Programm ist, somit zu einem Widerspruch führt, kann es SchleifenPrüfung nicht geben. [Zum Text]

  40. Deshalb »scheinen«, da die Behauptung, dass die Klasse der vollständigen (NP-harten) Probleme superpolynomisch viel Zeit in Anspruch nimmt (meist P NP geschrieben), bisher eine unbewiesene Vermutung ist. Nach nahezu 50 Jahren der Forschung sind allerdings fast alle Mathematiker und Informatiker davon überzeugt, dass die Behauptung zutrifft. [Zum Text]

  41. Lovelaces Ansichten über Berechnungen sind primär in ihren Anmerkungen zu ihrer Übersetzung eines italienischen Kommentars zu Babbages Engine enthalten: Menabrea, L. F., »Sketch of the Analytical Engine invented by Charles Babbage«, Übersetzung durch Ada, Countess of Lovelace, in Scientific Memoirs, Band III, Hrsg. R. Taylor (R. und J. E. Taylor, 1843). Menabreas auf Französisch verfasstes Original beruht auf Vorlesungen, die Babbage 1840 hielt, und erschien in Bibliothèque Universelle de Genève 82 (1842). [Zum Text]

  42. Einer der frühen wegweisenden Artikel, der sich mit der Möglichkeit einer künstlichen Intelligenz befasst: Turing, Alan, »Computing machinery and intelligence«, Mind 59 (1950): 433–60. [Zum Text]

  43. Das Shakey-Projekt am SRI wird im Nachhinein von einem seiner Leiter beschrieben: Nilsson, Nils, »Shakey the robot«, Technische Anmerkung 323 (SRI International, 1984). Ein 24-minütiger Film namens SHAKEY: Experimentation in Robot Learning and Planning wurde 1969 produziert und fand landesweit Aufmerksamkeit. [Zum Text]

  44. Das Buch, das den Beginn der modernen wahrscheinlichkeitsbasierten KI markierte: Pearl, Judea, Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference (Morgan Kaufmann, 1988). [Zum Text]

  45. Technisch gesehen, ist Schach nicht vollständig beobachtbar. Ein Programm muss sich eine kleine Menge an Informationen merken, um die Zulässigkeit von Rochaden und En-passant-Zügen zu beurteilen und ein Remis durch Wiederholung oder die 50-Züge-Regel zu definieren. [Zum Text]

  46. Vollständige Darstellung in Kapitel 2, Russell, Stuart und Norvig, Peter, Künstliche Intelligenz: Ein moderner Ansatz, Pearson Studium; 3., aktualisierte Auflage (2012). [Zum Text]

  47. Die Größe des Zustandsraums bei StarCraft wird von Santiago Ontañon et al. behandelt in »A survey of real-time strategy game AI research and competition in StarCraft«, IEEE Transactions on Computational Intelligence and AI in Games 5 (2013): 293–311. Es gibt eine gewaltige Anzahl an Zügen, da ein Spieler alle Einheiten gleichzeitig bewegen kann. Die Anzahl verringert sich, sobald Beschränkungen zur Anzahl der Einheiten oder Gruppen, die in einem Zug bewegt werden dürfen, eingeführt werden. [Zum Text]

  48. Über eine Mensch-gegen-Maschine-Partie StarCraft: Simonite, Tom, »DeepMind beats pros at StarCraft in another triumph for bots«, Wired, 25. Januar 2019. [Zum Text]

  49. AlphaZero wird von David Silver et al. beschrieben in »Mastering chess and shogi by self-play with a general reinforcement learning algorithm«, arXiv:1712.01815 (2017). [Zum Text]

  50. Optimale Pfade in Graphen lassen sich mit dem A*-Algorithmus und seinen Nachkommen aufspüren: Hart, Peter, Nilsson, Nils und Raphael, Bertram, »A formal basis for the heuristic determination of minimum cost paths«, IEEE Transactions on Systems Science and Cybernetics SSC-4 (1968): 100–107. [Zum Text]

  51. Advice Taker und logikbasierte Wissenssysteme wurden in diesem Artikel vorgestellt: McCarthy, John, »Programs with common sense«, in Proceedings of the Symposium on Mechanisation of Thought Processes (Her Majesty’s Stationery Office, 1958). [Zum Text]

  52. Welche Bedeutung wissensbasierte Systeme haben, erkennen Sie an Datenbanksystemen. Eine Datenbank enthält konkrete einzelne Informationen (Fakten), zum Beispiel den Ort, an dem sich meine Schlüssel befinden, oder die Identitäten Ihrer Facebook-Freunde. Datenbanksysteme können keine allgemeinen Regeln speichern, beispielsweise die Regeln für Schach oder die rechtliche Definition der britischen Staatsbürgerschaft. Man kann damit herausfinden, wie viele Menschen namens Alice Freunde namens Bob haben, aber es ist nicht möglich, zu ermitteln, ob eine bestimmte Alice die Voraussetzungen für die britische Staatsbürgerschaft erfüllt oder ob eine bestimmte Zugabfolge auf dem Schachbrett zum Schachmatt führt. Datenbanksysteme können keine zwei Informationseinheiten kombinieren und daraus eine dritte Einheit schaffen. Sie sind Speicher, aber keine Denkapparate. (Viele moderne Datenbanksysteme ermöglichen auch die Eingabe von Regeln und die Anwendung dieser Regeln zum Ableiten neuer Tatsachen. Dadurch sind es aber keine reinen Datenbanken mehr, sondern wissensbasierte Systeme.) Obwohl es stark eingeschränkte wissensbasierte Systeme sind, dienen Datenbanksysteme als Basis für die meisten kommerziellen Aktivitäten unserer Zeit und generieren Hunderte von Milliarden US-Dollar an Wert pro Jahr. [Zum Text]

  53. Der ursprüngliche Artikel, in dem der Vollständigkeitssatz für die Prädikatenlogik beschrieben wird: Gödel, Kurt, »Die Vollständigkeit der Axiome des logischen Funktionenkalküls«, Monatshefte für Mathematik 37 (1930): 349–60. [Zum Text]

  54. Der Schlussfolgerungsalgorithmus der Prädikatenlogik weist eine Lücke auf: Wenn es keine Antwort gibt (das verfügbare Wissen also nicht ausreicht, um überhaupt eine Antwort zu geben), kommt der Algorithmus niemals zu einem Ende. Das ist unvermeidlich: Es ist für einen korrekten Algorithmus mathematisch unmöglich, immer mit der Antwort »Ich weiß nicht« zu enden. Aus demselben Grund kann auch kein Algorithmus das Halteproblem lösen (siehe [hier]). [Zum Text]

  55. Der erste Algorithmus zum Beweis von Theoremen in der Prädikatenlogik reduzierte Aussagen aus der Prädikatenlogik auf (sehr, sehr viele) Aussagen in der Aussagenlogik: Davis, Martin und Putnam, Hilary, »A computing procedure for quantification theory«, Journal of the ACM 7 (1960): 201–15. Robinsons Auflösungsalgorithmus arbeitete direkt mit den Sätzen in der Prädikatenlogik und nutzte »Vereinigung«, um komplexe Ausdrücke mit logischen Variablen abzugleichen: Robinson, J. Alan, »A machine-oriented logic based on the resolution principle«, Journal of the ACM 12 (1965): 23-41. [Zum Text]

  56. Vielleicht fragen Sie sich, ob der logische Schlüsse ziehende Roboter Shakey jemals zu endgültigen Ergebnissen darüber gekommen ist, was er tun soll. Die Antwort ist einfach: Shakeys Wissensbasis enthielt falsche Annahmen. Zum Beispiel war Shakey davon überzeugt, dass die Aktion »Schiebe Objekt A durch Tür D in Raum B« die Folge hat, dass Objekt A sich in Raum B befindet. Das ist falsch, weil Shakey zum Beispiel am Türrahmen hängen bleiben, die Tür vollständig verfehlen oder jemand anderer Shakey Objekt A wegnehmen könnte. Shakeys Planausführungsmodul konnte ein Planversagen erkennen und entsprechend umplanen. Streng genommen war Shakey als kein rein logisches System. [Zum Text]

  57. Ein früher Kommentar zur Rolle der Wahrscheinlichkeit im menschlichen Denken: Laplace, Pierre-Simon, Essai philosophique sur les probabilités (Mme. Ve. Courcier, 1814). Deutsche Quelle des Zitats: Uwe Saint-Mont: Die Macht der Daten. Wie Information unser Leben bestimmt (Springer-Verlag, 2013): 13. [Zum Text]

  58. Bayessche Logik ohne viel technische Sprache erklärt: Russell, Stuart, »Unifying logic and probability«, Communications of the ACM 58 (2015): 88–97. Der Artikel fußt in weiten Teilen auf der Doktorarbeit meines ehemaligen Studenten Brian Milch. [Zum Text]

  59. Die Originalquelle des Satzes von Bayes: Bayes, Thomas und Price, Richard, »An essay towards solving a problem in the doctrine of chances«, Philosophical Transactions of the Royal Society of London 53 (1763): 370–418. [Zum Text]

  60. Technisch gesehen, behandelte Samuels Programm Gewinn und Niederlage nicht als absolute Belohnungen. Indem der Materialwert jedoch auf positive Werte beschränkt wurde, tendierte das Programm generell dazu, auf den Gewinn abzuzielen. [Zum Text]

  61. Der Einsatz von Reinforcement Learning für ein erstklassiges Backgammon-Programm: Tesauro, Gerald, »Temporal difference learning and TD-Gammon«, Communications of the ACM 38 (1995): 58–68. [Zum Text]

  62. Das DQN-System, das eine Vielzahl von Videospielen mittels RL erlernt: Mnih, Volodymyr et al., »Human-level control through deep reinforcement learning«, Nature 518 (2015): 529–33. [Zum Text]

  63. Bill Gates’ Kommentare zur Dota-2-KI: Clifford, Catherine, »Bill Gates says gamer bots from Elon Musk-backed nonprofit are ‘huge milestone’ in A.I.«, CNBC, 28. Juni 2018. [Zum Text]

  64. Ein Bericht zum Sieg von OpenAI Five über den menschlichen Weltmeister in Dota 2: Piper, Kelsey, »AI triumphs against the world’s top pro team in strategy game Dota 2«, Vox, 13. April 2019. [Zum Text]

  65. Ein Kompendium von Fällen in der Literatur, in denen die falsche Spezifikation der Belohnungsfunktion zu einem unerwarteten Verhalten geführt hat: Krakovna, Victoria, »Specification gaming examples in AI«, Deep Safety (Blog), 2. April 2018. [Zum Text]

  66. Ein Fall, in dem eine Funktion für evolutionäre Fitness auf Grundlage der Höchstgeschwindigkeit zu extrem unerwarteten Ergebnissen geführt hat: Sims, Karl, »Evolving virtual creatures«, in Proceedings of the 21st Annual Conference on Computer Graphics and Interactive Techniques (ACM, 1994). [Zum Text]

  67. Eine faszinierende Darlegung der Möglichkeiten von Reflexagenten beschreibt Valentino Braitenberg in Vehicles: Experiments in Synthetic Psychology (MIT Press, 1984). [Zum Text]

  68. Presseartikel über einen tödlichen Unfall zwischen einem autonomen Fahrzeug und einem Fußgänger: Coldewey, Devin: »Uber in fatal crash detected pedestrian but had emergency braking disabled«, TechCrunch, 24. Mai 2018. [Zum Text]

  69. Mehr über Lenkalgorithmen finden sich zum Beispiel in Jarrod Sniders »Automatic steering methods for autonomous automobile path tracking«, technischer Bericht CMU-RI-TR-09-08, Robotics Institute, Carnegie Mellon University, 2009. [Zum Text]

  70. Norfolk- und Norwich-Terrier sind zwei der Kategorien der ImageNet-Datenbank. Sie sind extrem schwer zu unterscheiden und galten bis 1964 als dieselbe Rasse. [Zum Text]

  71. Ein sehr unglücklicher Vorfall bei der Bildkennzeichnung: Howley, Daniel, »Google Photos mislabels 2 black Americans as gorillas«, Yahoo Tech, 29. Juni 2015. [Zum Text]

  72. Ein späterer Artikel zu Google und Gorillas: Simonite, Tom, »When it comes to gorillas, Google Photos remains blind«, Wired, 11. Januar 2018. [Zum Text]

Kapitel 3

  1. Der grundlegende Plan für Algorithmen, die Spiele spielen, wurde von Claude Shannon vorgestellt in »Programming a computer for playing chess«, Philosophical Magazine, 7th Ser., 41 (1950): 256–75. [Zum Text]

  2. Vgl. Abbildung 5.12, Russell, Stuart und Norvig, Peter, Künstliche Intelligenz: Ein moderner Ansatz, Pearson Studium; 3., aktualisierte Auflage (2012). Die Bewertung von Schachspielern und -programmen ist keine exakte Wissenschaft. Kasparows höchster Elo-Wert betrug 2.851 (im Jahr 1999), aber moderne Schachalgorithmen wie Stockfish werden mit 3.300 und höher bewertet. [Zum Text]

  3. Erster Bericht über ein autonomes Fahrzeug auf einer öffentlichen Straße: Dickmanns, Ernst und Zapp, Alfred, »Autonomous high speed road vehicle guidance by computer vision«, IFAC Proceedings Volumes 20 (1987): 221–26. [Zum Text]

  4. Stand der Sicherheit bei Google-Fahrzeugen (später Waymo): »Waymo safety report: On the road to fully self-driving«, 2018. [Zum Text]

  5. Bisher gab es mindestens zwei tote Fahrer und einen toten Fußgänger. Hier einige Verweise und kurze Zitate zum Geschehen. Yadron, Danny und Tynan, Dan, »Tesla driver dies in first fatal crash while using autopilot mode«, Guardian, 30. Juni 2016: »Die Autopilot-Sensoren des Model S erkannten den weißen Auflieger des über die Straße fahrenden Lkw vor dem hellen Himmel nicht.« Dickey, Megan Rose, »Tesla Model X sped up in Autopilot mode seconds before fatal crash, according to NTSB«, TechCrunch, 7. Juni 2018: »In den drei Sekunden vor dem Aufprall auf die Schutzvorrichtung beschleunigte der Tesla von 99,8 auf 113,9 km/h. Es wurde weder eine Notbremsung noch ein Ausweichmanöver erkannt.« Coldewey, Devin: »Uber in fatal crash detected pedestrian but had emergency braking disabled«, TechCrunch, 24. Mai 2018: »Unter Computerkontrolle sind die Notbremsmanöver deaktiviert, um ein erratisches Fahrzeugverhalten nach Möglichkeit zu verhindern.« [Zum Text]

  6. Die Gesellschaft der US-Automobilingenieure (SAE) definiert sechs Stufen der Automatisierung. Stufe 0 steht für keine Automatisierung, Stufe 5 für vollständige Automatisierung: »Das automatische Fahrsystem kontrolliert zu jeder Zeit sämtliche Aspekte der dynamischen Fahraufgabe bei allen Straßen- und Umgebungsbedingungen, die auch von einem menschlichen Fahrer bewältigt werden können.« [Zum Text]

  7. Prognose der wirtschaftlichen Auswirkungen der Automatisierung auf die Transportkosten: Peters, Adele, »It could be 10 times cheaper to take electric robo-taxis than to own a car by 2030«, Fast Company, 30. Mai 2017. [Zum Text]

  8. Die Auswirkungen von Unfällen auf die Aussichten für gesetzgeberische Maßnahmen im Hinblick auf autonome Fahrzeuge: Waters, Richard, »Self-driving car death poses dilemma for regulators«, Financial Times, 20. März 2018. [Zum Text]

  9. Die Auswirkungen von Unfällen auf die öffentliche Meinung über autonome Fahrzeuge: Cox Automotive, »Autonomous vehicle awareness rising, acceptance declining, according to Cox Automotive mobility study«, 16. August 2018. [Zum Text]

  10. Der erste Chatbot: Weizenbaum, Joseph, »ELIZA – a computer program for the study of natural language communication between man and machine«, Communications of the ACM 9 (1966): 36–45. [Zum Text]

  11. Aktuelle Informationen zur physiologischen Modellierung gibt es auf physiome.org. Arbeit aus den 1960ern an Modellen mit Tausenden von Differenzialgleichungen: Guyton, Arthur, Coleman, Thomas und Granger, Harris, »Circulation: Overall regulation«, Annual Review of Physiology 34 (1972): 13–44. [Zum Text]

  12. Eine der ersten Arbeiten zu Tutorensystemen stammt von Pat Suppes und seinem Team an der Universität Stanford: Suppes, Patrick und Morningstar, Mona, »Computer-assisted instruction«, Science 166 (1969): 343–50. [Zum Text]

  13. Yudelson, Michael, Koedinger, Kenneth und Gordon, Geoffrey, »Individualized Bayesian knowledge tracing models« in Artificial Intelligence in Education: 16th International Conference, Hrsg. H. Chad Lane et al. (Springer, 2013). [Zum Text]

  14. Ein Beispiel für Machine Learning mit verschlüsselten Daten stellen Reza Shokri und Vitaly Shmatikov vor in »Privacy-preserving deep learning«, Proceedings of the 22nd ACM SIGSAC Conference on Computer and Communications Security (ACM, 2015). [Zum Text]

  15. Ein Rückblick auf das erste Smart Home, basierend auf einem Vortrag seines Erfinders James Sutherland: Tomayko, James E., »Electronic Computer for Home Operation (ECHO): The first home computer«, IEEE Annals of the History of Computing 16 (1994): 59–61. [Zum Text]

  16. Zusammenfassung eines Smart-Home-Projekts auf Grundlage von Machine Learning und automatisierten Entscheidungen: Cook, Diane et al., »MavHome: An agent-based smart home«, in Proceedings of the 1st IEEE International Conference on Pervasive Computing and Communications (IEEE, 2003). [Zum Text]

  17. Die Anfänge einer Untersuchung von Nutzererfahrungen in Smart Homes finden sich bei Scott Davidoff et al. in »Principles of smart home control«, in Ubicomp 2006: Ubiquitous Computing, Hrsg. Paul Dourish und Adrian Friday (Springer, 2006). [Zum Text]

  18. Kommerzielle Ankündigung von Smart Homes auf KI-Basis: »The Wolff Company unveils revolutionary smart home technology at new Annadel Apartments in Santa Rosa, California«, Business Insider, 12. März 2018. [Zum Text]

  19. Artikel über Roboterköche als kommerzielle Produkte: Huen, Eustacia, »The world’s first home robotic chef can cook over 100 meals«, Forbes, 31. Oktober 2016. [Zum Text]

  20. Bericht meiner Kollegen aus Berkeley über tiefes RL zur Motorsteuerung bei Robotern: Levine, Sergey et al., »End-to-end training of deep visuomotor policies«, Journal of Machine Learning Research 17 (2016): 1–40. [Zum Text]

  21. Über die Möglichkeiten, die Arbeit von Hundertausenden von Lagerarbeitern zu automatisieren: Simonite, Tom, »Grasping robots compete to rule Amazon’s warehouses«, Wired, 26. Juli 2017. [Zum Text]

  22. Ich gehe großzügig von einer Notebook-CPU-Minute pro Seite oder etwa 1011 Operationen aus. Eine Tensor Processing Unit der dritten Generation von Google schafft etwa 1017 Operationen pro Sekunde, kann also eine Million Seiten pro Sekunde lesen, was etwa fünf Stunden für 80 Millionen Bücher mit jeweils 200 Seiten entspricht. [Zum Text]

  23. Eine Studie aus dem Jahr 2003 zur weltweiten Menge des Informationsausstoßes auf allen Kanälen: Lyman, Peter und Varian, Hal, »How much information?« sims.berkeley.edu/research/projects /how-much-info-2003. [Zum Text]

  24. Weitere Informationen zum Einsatz von Spracherkennung bei Geheimdiensten bietet Dan Froomkin in »How the NSA converts spoken words into searchable text«, The Intercept, 5. Mai 2015. [Zum Text]

  25. Die Analyse von Satellitenbildern ist eine gewaltige Aufgabe: Kim, Mike, »Mapping poverty from space with the World Bank«, Medium.com, 4. Januar 2017. Kim schätzt, dass acht Millionen Personen rund um die Uhr an sieben Tagen die Woche damit beschäftigt sind. Das entspricht mehr als 30 Millionen Menschen, die 40 Wochenstunden arbeiten. Ich vermute, dass diese Zahlen zu hoch sind, da in der Praxis die meisten Bilder lediglich vernachlässigbare Änderungen gegenüber dem Vortag aufweisen. Andererseits beschäftigen die amerikanischen Geheimdienste Zehntausende von Personen, die den ganzen Tag auf riesige Bildschirme mit Satellitenaufnahmen starren, um herauszufinden, was in kleinen Regionen, die von Interesse sind, geschieht. Eine Million dürfte daher ungefähr korrekt sein, wenn es um die ganze Welt geht. [Zum Text]

  26. Es gibt beträchtliche Fortschritte bei der globalen Beobachtung auf Basis von Echtzeitsatellitendaten: Jensen, David und Campbell, Jillian, »Digital earth: Building, financing and governing a digital ecosystem for planetary data«, Weißbuch für das UN SciencePolicy-Business Forum on the Environment, 2018. [Zum Text]

  27. Luke Muehlhauser hat umfassend über KI-Vorhersagen geschrieben. Ich bin ihm sehr zu Dank verpflichtet, dass er die Originalquellen der folgenden Zitate herausgesucht hat. Mehr dazu in Luke Muehlhausers »What should we learn from past AI forecasts?«, Bericht zum Open Philanthropy Project, 2016. [Zum Text]

  28. Eine Prognose, dass eine dem Menschen ebenbürtige KI innerhalb der nächsten 20 Jahre Realität wird: Simon, Herbert, The New Science of Management Decision (Harper & Row, 1960). Deutsche Quelle des Zitats: https://t3n.de/news/superintelligenz-ki-ai-787316/. [Zum Text]

  29. Eine Prognose, dass eine dem Menschen ebenbürtige KI innerhalb einer Generation Realität wird: Minsky, Marvin, Berechnung: Endliche und unendliche Maschinen (Stuttgart, Verlag Berliner Union GmbH, 1971). [Zum Text]

  30. John McCarthys Prognose, dass eine dem Menschen ebenbürtige KI innerhalb der nächsten 5 bis 500 Jahre Realität wird: Shenker, Ian, »Brainy robots in our future, experts think«, Detroit Free Press, 30. September 1977. Deutsche Quelle des Zitats: https://www.heise.de/newsticker/meldung/Zahlen-bitte-Die-1-7-Einsteins-des-KI-Pioniers-John-McCarthy-4198863.html. [Zum Text]

  31. Eine Übersicht der Umfragen von KI-Forschern, wann ihrer Meinung nach eine dem Menschen ebenbürtige KI Realität wird, findet sich auf aiimpacts.org. Eine umfassende Betrachtung der Umfrageergebnisse zu einer dem Menschen ebenbürtige KI bieten Katja Grace et al. in »When will AI exceed human performance? Evidence from AI experts«, arXiv: 1705.08807v3 (2018). [Zum Text]

  32. Eine Darstellung von roher Rechenleistung und Gehirnleistung findet sich in Ray Kurzweils »The law of accelerating returns«, Kurzweilai.net, 7. März 2001. [Zum Text]

  33. Projekt Aristo vom Allen Institute: allenai.org/aristo. [Zum Text]

  34. Eine Analyse des erforderlichen Wissens, um bei einem Verständnistest für Viertklässler gut abzuschneiden, halten Peter Clark et al. bereit in »Automatic construction of inference-supporting knowledge bases«, Proceedings of the Workshop on Automated Knowledge Base Construction (2014), akbc.ws/2014. [Zum Text]

  35. Das NELL-Projekt zum maschinellen Lesen wird von Tom Mitchell et al. beschrieben in »Neverending learning«, Communications of the ACM 61 (2018): 103–15. [Zum Text]

  36. Die Ideen vom Inferenz-Bootstrapping in Texten verdanken wir Sergey Brin: »Extracting patterns and relations from the World Wide Web« in The World Wide Web and Databases, Hrsg. Paolo Atzeni, Alberto Mendelzon und Giansalvatore Mecca (Springer, 1998). [Zum Text]

  37. Eine bildliche Darstellung der vom LIGO entdeckten Kollision finden Sie hier: LIGO Lab Caltech, »Warped space and time around colliding black holes«, 11. Februar 2016, youtube.com/watch?v=1agm33iEAuo. [Zum Text]

  38. Die erste Veröffentlichung, in der die Beobachtung von Gravitationswellen beschrieben wird: Abbott, Ben et al., »Observation of gravitational waves from a binary black hole merger«, Physical Review Letters 116 (2016): 061102. [Zum Text]

  39. Über Säuglinge als Wissenschaftler: Gopnik, Alison, Meltzoff, Andrew und Kuhl, Patricia, The Scientist in the Crib: Minds, Brains, and How Children Learn (William Morrow, 1999). [Zum Text]

  40. Eine Übersicht über mehrere Projekte zur automatisierten wissenschaftlichen Analyse experimenteller Daten zur Aufdeckung von Gesetzmäßigkeiten: Langley, Patrick et al., Scientific Discovery: Computational Explorations of the Creative Processes (MIT Press, 1987). [Zum Text]

  41. Eine frühe Arbeit über durch Vorwissen geleitetes Machine Learning: Russell, Stuart, The Use of Knowledge in Analogy and Induction (Pitman, 1989). [Zum Text]

  42. Goodmans philosophische Analyse der Induktion bleibt ein Quell der Inspiration: Goodman, Nelson, Tatsache, Fiktion, Voraussage (Suhrkamp Verlag KG, November 1982). [Zum Text]

  43. Ein alter Hase auf dem Gebiet der KI-Forschung klagt über Mystifikation in der Wissenschaftstheorie: Simon, Herbert, »Explaining the ineffable: AI on the topics of intuition, insight and inspiration«, in Proceedings of the 14th International Conference on Artificial Intelligence, Hrsg. Chris Mellish (Morgan Kaufmann, 1995). [Zum Text]

  44. Zwei Mitbegründer des Gebiets über induktive logische Programmierung: Muggleton, Stephen und de Raedt, Luc, »Inductive logic programming: Theory and methods«, Journal of Logic Programming 19-20 (1994): 629–79. [Zum Text]

  45. Eine frühe Erwähnung der Bedeutung einer Zerlegung komplexer Vorgänge in neue, primitive Aktionen: Whitehead, Alfred North, An Introduction to Mathematics (Henry Holt, 1911). Deutsche Quelle des Zitats: https://www.zeit.de/2018/05/unterbewusstsein-psychologie-forschung-manipulation. [Zum Text]

  46. Eine Arbeit, die zeigt, dass ein simulierter Roboter aus sich selbst heraus lernen kann, aufzustehen: Schulman, John et al., »High-dimensional continuous control using generalized advantage estimation«, arXiv: 1506.02438 (2015). Das Video ist hier zu finden: youtube.com/watch?v=SHLuf2ZBQSw. [Zum Text]

  47. Die Beschreibung eines Reinforcement-Learning-Systems, das lernt, ein Capture-the-Flag-Videospiel zu spielen: Jaderberg, Max et al., »Human-level performance in first-person multiplayer games with population-based deep reinforcement learning«, arXiv: 1807.01281 (2018). [Zum Text]

  48. Ein Ausblick auf den KI-Fortschritt in den nächsten Jahren: Stone, Peter et al., »Artificial intelligence and life in 2030«, One Hundred Year Study on Artificial Intelligence, Bericht des Studienpodiums 2015 aus dem Jahr 2016. [Zum Text]

  49. Die von den Medien befeuerte Diskussion zwischen Elon Musk und Mark Zuckerberg: Holley, Peter, »Billionaire burn: Musk says Zuckerberg’s understanding of AI threat ›is limited‹«, The Washington Post, 25. Juli 2017. [Zum Text]

  50. Über den Wert von Suchmaschinen für einzelne Nutzer: Brynjolfsson, Erik, Eggers, Felix und Gannamaneni, Avinash, »Using massive online choice experiments to measure changes in well-being«, Arbeitspapier Nr. 24514, National Bureau of Economic Research, 2018. [Zum Text]

  51. Penicillin wurde mehrere Male entdeckt und seine heilende Wirkung wurde in medizinischen Veröffentlichungen publik gemacht, ohne dass es jemandem auffiel. Siehe https://de.wikipedia.org/wiki/Penicilline#Geschichte. [Zum Text]

  52. Eine Abhandlung zu einigen der esoterischeren Risiken von allwissenden, hellseherischen KI-Systemen bietet David Auerbach: »The most terrifying thought experiment of all time«, Slate, 17. Juli 2014. [Zum Text]

  53. Eine Analyse potenzieller Fußangeln beim Nachdenken über fortgeschrittene KI: Kelly, Kevin, »The myth of a superhuman AI«, Wired, 25. April 2017. [Zum Text]

  54. Möglicherweise teilen Maschinen einige Aspekte der kognitiven Struktur mit uns Menschen, vor allem jene, die mit der Wahrnehmung und Manipulation der physischen Welt und den begrifflichen Strukturen zu tun haben, die für das Verständnis natürlicher Sprache nötig sind. Die in ihnen ablaufenden Prozesse dürften sich allerdings stark unterscheiden, allein schon aufgrund der enormen Unterschiede in der Hardware. [Zum Text]

  55. Daten aus dem Jahr 2016 zeigen, dass das 88. Perzentil 100.000 US-Dollar pro Jahr entspricht: American Community Survey, US Census Bureau, www.census.gov/programs-surveys/acs. Im selben Jahr betrug das globale Bruttoinlandsprodukt pro Kopf 10.133 US-Dollar: National Accounts Main Aggregates Database, UN Statistics Division, unstats.un.org/unsd/snaama. [Zum Text]

  56. Wenn das BIP in 10 oder 20 Jahren nicht mehr weitersteigt, wären es 9.400 Billionen bzw. 6.800 Billionen US-Dollar – immer noch eine nicht zu verachtende Summe. In diesem Zusammenhang ist interessant, dass I. J. Good, der den Begriff der Intelligenzexplosion prägte (siehe [hier]), den Wert einer dem Menschen ebenbürtigen KI auf mindestens »ein megaKeynes« geschätzt hat (das bezieht sich natürlich auf den berühmten Wirtschaftswissenschaftler John Maynard Keynes). Der Wert von Keynes’ Beiträgen wurde 1963 auf 100 Billionen Britische Pfund geschätzt. Damit entspricht ein megaKeynes etwa 2.200.000 Billionen US-Dollar nach der Kaufkraft im Jahr 2016. Good machte den Wert der KI in erster Linie an ihrem Potenzial fest, ein dauerhaftes Überleben der Menschheit sicherstellen zu können. Später fragte er sich allerdings, ob er vielleicht ein Minuszeichen hätte voranstellen sollen. [Zum Text]

  57. Die EU plant laut Ankündigungen für den Haushalt 2019/20 Ausgaben in Höhe von 24 Milliarden US-Dollar für Forschung und Entwicklung. Siehe Pressemitteilung der Europäischen Kommission, »Künstliche Intelligenz: Kommission beschreibt europäisches Konzept zur Förderung von Investitionen und Entwicklung ethischer Leitlinien« vom 25. April 2018 (https://ec.europa.eu/commission/presscorner/detail/de/IP_18_3362). Chinas 2017 vorgestellter, langfristiger Investitionsplan für die KI sieht eine KI-Kernbranche vor, die ab 2030 jährlich 150 Milliarden US-Dollar generiert. Siehe zum Beispiel Mozur, Paul, »Beijing wants A.I. to be made in China by 2030«, The New York Times, 20. Juli 2017. [Zum Text]

  58. Siehe zum Beispiel das Rio-Tinto-Programm »Mine of the Future«, riotinto.com/australia/pilbara/mine-of-the-future-9603.aspx. [Zum Text]

  59. Eine Rückschau auf das Wirtschaftswachstum: van Zanden, Jan Luiten et al., Hrsg., Wie war das Leben damals? Lebensqualität weltweit seit 1820 (OECD-Publikation 2014). [Zum Text]

  60. Der Wunsch, im Vergleich mit anderen besser dazustehen, statt des Wunschs nach einer absoluten Lebensqualität, ist ein Positionsgut; vgl. Kapitel 9. [Zum Text]

  61. Bostrom, Nick: Superintelligenz: Szenarien einer kommenden Revolution (Suhrkamp Verlag, 2014): 365. [Zum Text]