Wo helfen uns Daten, die Welt besser zu verstehen und bessere Entscheidungen zu treffen? Und in welchen Situationen helfen sie uns nicht oder behindern uns sogar?
Algorithmen können immense Datenmengen bewältigen, und sie können selbst lernen. Doch das führt nicht zwangsläufig zu besseren Entscheidungen. Denn die Maschinen erkennen zwar Muster, der Mensch aber versteht den Grund.
Ein optimiertes Urteilsvermögen entsteht also dann, wenn sich menschliche Erfahrung und das Verständnis für Kausalitäten mit Künstlicher Intelligenz verbinden lassen, wenn unsere Intelligenz durch die der Maschinen ausgeweitet wird – und genau das bedeutet »Augmented Intelligence«.
E-Book-Leseproben von einigen der beliebtesten Bände unserer Reihe [Was bedeutet das alles?] finden Sie hier zum kostenlosen Download.
Die E-Books des Reclam Verlags verwenden entsprechend der jeweiligen Buchausgabe Sperrungen zur Hervorhebung von Textpassagen. Diese Textauszeichnung wird nicht von allen Readern unterstützt.
Enthält das E-Book in eckigen Klammern beigefügte Seitenzählungen, so verweisen diese auf die Printausgabe des Werkes.
Es gibt keine Experten für die Zukunft. Im Verlauf der Coronakrise traf uns diese alte Erkenntnis mit neuer Wucht.
Im Frühjahr 2020 mussten Politikerinnen und Politiker in aller Welt Entscheidungen von größter Tragweite treffen, ohne die genauen Übertragungswege des Coronavirus zu kennen. Sie wussten nicht, welche und wie viele Bürgerinnen und Bürger in ihrem Land bereits infiziert waren, wie hoch der Anteil derjenigen war, die das Virus asymptomatisch weiterverbreiteten, und wer bereits wieder immun war, also ein ganz normales Leben hätte führen können. Sie verstanden nicht, wer wegen und wer mit Covid-19 starb. Es gab keine klare Evidenz, ob Kinder den Virus übertragen können und Kita- und Schulschließungen sinnvoll oder nur vorsichtig waren. Die Experten stritten darüber, ob ein einfacher Mundschutz nützt, ob er nicht oder nur ein klein wenig hilft.
Die vielen Infografiken und Modellrechnungen, auf die Politiker und Bürger täglich in den Online-Medien starrten, suggerierten Evidenz zum Gesundheitszustand der Welt, fußten auf unvollständigen oder geschätzten Daten und lieferten vor allem eines: Scheinevidenz. Die Entscheiderinnen und Entscheider von Neuseeland über Singapur bis in die USA konnten nur spekulieren, wie hoch die wirtschaftlichen, sozialen und gesundheitlichen Kosten von Lockdowns in ihrer jeweiligen Volkswirtschaft sein werden und inwiefern finanzielle Rettungsschirme für Unternehmen, Kurzarbeitergeld oder Soforthilfen für Soloselbstständige die unerwünschten Nebenwirkungen der Seuchenhygiene abmildern können.
Aus Sicht der Entscheidungsforschung ist die Coronakrise ein Reallabor für Entscheidungsfindung unter den Bedingungen höchster Unsicherheit. Die Kausalitäten sind unbekannt. Risiken lassen sich nur erahnen, aber nicht berechnen. Wir dachten, wir leben im Zeitalter von Big Data, in einer Zeit, in der Algorithmen maschinenlesbare Informationen statistisch aufbereiten und Prognosen ermöglichen, so dass sie unsere Entscheidungsgrundlagen entscheidend verbessern. Und dann kommt eine Pandemie mit Ursprung in China daher, zieht um den Globus und malt ein so unklares, fragmentiertes Datenbild, dass auch die klügsten Experten der Welt an der Interpretation der Gegenwart scheitern. Wer hätte das gedacht?
Das Coronavirus stellte Politiker vor nicht auflösbare Zielkonflikte. Für Entscheidungsforscher wenig überraschend entschieden diese sich fast überall – mit Ausnahme von Schweden – für die Optionen mit der höchsten Wahrscheinlichkeit, die kurzfristigen Risiken zu mindern. Dafür nahmen sie langfristig hohe Kosten (und Risiken) in Kauf, die sich zum Zeitpunkt der Entscheidung aber nicht einmal halbwegs seriös prognostizieren ließen.
Natürlich kann auch dieses Buch nicht für sich in Anspruch nehmen, eine schlüssige Bedienungsanleitung für Entscheidungsfindung im Kontext von Datenarmut, widersprüchlicher Informationslage und Unsicherheit vom Schlage der Coronakrise zu liefern. Jeder Autor, der dies behauptete, litte vermutlich unter einer pathologischen Form des Overconfidence-Bias, der kognitiven Verzerrung der Selbstüberschätzung seiner Urteilskraft.
Auf den kommenden rund 100 Seiten versuche ich vielmehr der Frage nachzugehen, warum es uns so schwerfällt, Entscheidungen zu treffen, und wie maschinelle Entscheidungsassistenz uns genau in einem solchen Fall dabei helfen könnte, unsere menschliche Entscheidungsintelligenz zu erhöhen. Oder anders formuliert: Ich suche nach Wegen, wie Künstliche-Intelligenz- bzw. KI-Systeme bei Entscheidungsprozessen zu Intelligenzverstärkern werden können bzw. wie aus der Verbindung von kognitiven Fähigkeiten des menschlichen Gehirns und maschineller Mustererkennung Augmented Intelligence erwächst.
Die ersten beiden Kapitel beschreiben deshalb die Grundlagen der Entscheidungsfindung. Sie zeigen, warum die Coronakrise zwar eine Extremsituation sein mag, aber Unsicherheit und eine diffuse Datenlage grundsätzlich jede Entscheidungssituation prägen. Wer eine Entscheidung trifft, macht sich angreifbar. Wenn alles klar ist, treffen wir keine Entscheidung, sondern setzen eine logische Schlussfolgerung um. Und dennoch können wir deutlich systematischer Entscheidungen angehen.
Kapitel 3 beschreibt darauf aufbauend das Konzept der Augmented Intelligence ausführlich und entwirft ein Entscheidungsmodell mit sechs Schritten: 1. Entscheidungsproblem beschreiben, 2. Ziele und Werte definieren, 3. Optionen erarbeiten, 4. Informationen beschaffen, 5. Bewerten und 6. Entscheidung umsetzen.
Das vierte Kapitel gleicht dann ab, bei welchen der Schritte Daten und Algorithmen helfen können und wo sie wenig bis gar nichts nützen. Die zentrale These lautet hier: Künstliche Intelligenz wird uns helfen, mehr Entscheidungen im Modus der rationalen Abwägung zu treffen, also jener Form der Entscheidungsfindung, die der Verhaltensökonom Daniel Kahneman »langsames Denken« oder »System 2« nennt.
Anschließend suche ich nach Lösungen, wie wir intelligenter mit der Vielfalt der Informationen im Überfluss der (Shopping-)Angebote umgehen können, und gehe der Frage nach, ob sich Management nicht viel stärker automatisieren ließe. Von dem Ergebnis sei schon so viel vorweggenommen: Intelligente Maschinen und schnelles Rechnen werden uns weder das langsame Denken abnehmen noch von der Qual befreien, uns immer wieder entscheiden zu müssen. Das ist gut. So mühsam und unangenehm Entscheidungsprozesse auch sein mögen, kleine wie große, durch Entscheidungen werden wir zu denjenigen, die wir sind. Ohne Entscheidungen gibt es keine Identitätsfindung: Entscheidungen ziehen Grenzen, Grenzen definieren das Selbstverständnis – das Identität immer wieder neu schafft. Und auf absehbare Zeit wird gelten: Auch die intelligentesten Maschinen sind keine Experten für die Zukunft.
Gegen die Coronapandemie hat keine KI uns Linderung verschafft, sondern Linderung brachte uns die wirtschaftlich kostspielige Entscheidung für die Sozialtechnik der sozialen Distanzierung. Und wir wissen heute noch besser als vor der Krise: Die Zukunft lässt sich auch mit den besten Daten nur dann vorherberechnen, wenn sie eine lineare Fortschreibung von Vergangenheit und Gegenwart ist. Wenn sich alles ändert, sind auch Algorithmen aufgeschmissen. Wir sehen uns zurückgeworfen auf die Kernkompetenz menschlicher Intelligenz: herauszufinden, was zu tun ist, wenn wir nicht wissen, was zu tun ist.
Warum es keine guten Entscheidungen gibt, aber gute Entscheidungsprozesse
Sollte er heiraten oder nicht? Charles Darwin wollte sich bei einer der wichtigsten Entscheidungen seines Lebens nicht gar zu sehr von Gefühlen leiten lassen. Im Alter von 29 Jahren, zurückgekehrt von seiner fünfjährigen Weltreise, hatte der Naturforscher in seiner Cousine zwar eine mögliche Kandidatin erspäht. Doch ob diese als Person die richtige Wahl war, schien Darwin eine zweitrangige Frage. Zunächst musste die grundsätzliche, binäre Entscheidung getroffen werden: ja oder nein? Ist eine Ehe überhaupt sinnvoll, oder wäre ein Junggesellenleben bis ins hohe Alter nicht die attraktivere Option? Für die Entscheidungsfindung griff der Vater der Evolutionsbiologie im Juli 1838 auf ein Werkzeug zur Entscheidungsfindung zurück, das rund 100 Jahre zuvor vom amerikanischen Gründungsvater Benjamin Franklin populär gemacht worden war, die Pro-und-Kontra-Liste.
In seinem Tagebuch katalogisierte Darwin die Vor- und Nachteile der Ehe in einer zweispaltigen Tabelle. Auf der Habenseite der Ehe verbuchte er unter anderem: »Jemand, der sich für einen interessiert. Jemand zum Liebhaben. Besser als ein Hund. Eigenes Heim und jemand, der den Haushalt führt. Charme von Musik und weiblichem Geplauder.« Dieses alles sei gut für die Gesundheit. Ehe bedeute aber leider auch, Verwandte zu besuchen – »eine schreckliche Zeitverschwendung«.
Für das Szenario des Nicht-Heiratens fand der Forscher zunächst ein starkes Gegenargument: »Keine Kinder, kein zweites Leben also. Niemand, der sich im Alter um einen kümmert.« Ein Pluspunkt für das Junggesellenleben sei freilich die »Freiheit hinzugehen, wohin man will« und die »Gesellschaft kluger Männer in Clubs«. Gut auch, dass der lästige Zwang wegfalle, Verwandte zu besuchen. Keine Kosten und Sorgen um Kinder notierte er als weiteres Pro-Argument gegen die Ehe, gefolgt von »kein Streit«. Doch ein Single zu sein bedeute leider auch: »Man wird fett und faul und Angst vor Verantwortung kommt auf.«
Benjamin Franklin hatte für sein Entscheidungstool eine Art Betriebsanleitung mitgeliefert, nämlich möglichst viele Pro- und Kontra-Argumente in zwei Spalten einander gegenüberzustellen und diese dann gegeneinander zu gewichten. Gleichgewichtige Argumente strich er auf beiden Seiten der Abwägung aus. Hatte er den Eindruck, dass ein Pro-Argument so wichtig war wie zwei Gegenargumente (oder umgekehrt), strich er summarisch diese drei weg. So fand Franklin heraus, »wo die Balance liegt«, und nannte seine Methode »eine moralische oder überlegte Algebra«. Computerwissenschaftler würden heute von einem einfachen Algorithmus sprechen.
Darwin hat die Franklin-Methode des wechselseitigen Ausstreichens von Argumenten nicht nach Anleitung durchgeführt, wie in der Originalhandschrift von Darwins Tagebüchern erkennbar ist. Die Pros und Kontras systematisch im Tagebuch vor Augen, fiel dem Wissenschaftler eine klare Entscheidung leicht: »Mein Gott, es ist unerträglich sich vorzustellen, dass man sein Leben wie eine geschlechtslose Arbeitsbiene verbringt. Stell dir den ganzen Tag in einem schmutzigen Haus vor. Halte das Bild einer sanften Frau dagegen. Also: heiraten, heiraten, heiraten. Q. e. d. – quod erat demonstrandum.«
Entscheidungsfindung ist eine Simulationsübung. Bei wichtigen Entscheidungen stellen wir uns vor, wie die Zukunft aussehen könnte. Wir projizieren uns – und im Unterschied zu Darwin hoffentlich auch andere von der Entscheidung Betroffene – in verschiedene Szenarien hinein. In der simulierten Zukunft versuchen wir dann, die voraussichtlichen Konsequenzen unserer Wahl abzuschätzen, um eine, wie wir umgangssprachlich dann sagen, »gute Entscheidung« zu treffen. Die Entscheidungsforschung sagt: Es gibt keine guten Entscheidungen. Es gibt nur gute und schlechte Entscheidungsprozesse. Das ist keine sprachliche Haarspalterei, sondern grundlegend wichtig zum Verständnis, was Entscheidungsfindung im Allgemeinen und Entscheidungen im Daten- und Informationszeitalter im Besonderen ausmachen.
Ob wir bei einer Entscheidung eine gute Wahl treffen, können wir, konsequent betrachtet, nie wirklich beurteilen. Schon gar nicht können wir das zum Zeitpunkt der Entscheidung, denn wir kennen ja die Zukunft nicht. Zudem gilt: Die spätere Erfahrung wird uns verändern. Kann ich vorher wissen, ob Kinder mein Leben bereichern werden – oder ob ich als Single besser gefahren wäre? Vielleicht bin ich am Ende jemand, der plötzlich Kinder liebt – was ich mir vor der Entscheidung, Kinder zu kriegen, so überhaupt nicht hatte vorstellen können. In der Philosophie nennt man das eine transformative Erfahrung: Die Erfahrung verändert uns, wir sind nicht mehr dieselben. Die Philosophin L. A. Paul empfiehlt: Wir sollten uns nicht die Frage stellen, ob wir Kinder haben wollen oder nicht, denn diese Frage können wir nicht begründet entscheiden –, sondern ob wir uns in eine Situation begeben wollen, in der wir uns völlig verändern können, etwa indem wir Kinder bekommen.
Unabhängig von der transformativen Qualität: Im Nachhinein erscheinen uns dann Entscheidungen mitunter als gut oder richtig, die durch die Brille eines Statistikers betrachtet zum Zeitpunkt der Entscheidung vollkommen irrational sind. Wer ein Lottoticket für zehn Euro kauft, trifft am Zeitungskiosk eine statistisch ausgesprochen dämliche Kaufentscheidung, denn die Gewinnchance ist deutlich geringer, als es der Kaufpreis rechtfertigt. Wer mit diesem Zehn-Euro-Ticket dann den Zehn-Millionen-Euro-Jackpot knackt, wird den Kauf dann im Rückblick »zur besten Entscheidung seines Lebens« erklären.
Vielleicht ist dem Lottogewinner klar, dass er mit einer irrationalen Entscheidung das Glück herausgefordert und im Unterschied zu den Millionen Verlierern der Ziehung auch erzwungen hat. Dann war sein Entscheidungsprozess zumindest eine bewusste Abwägung. Und doch können wir konsequent betrachtet nicht einmal im Nachhinein beurteilen, auch nicht im Fall eines Lottogewinns, ob wir eine gute oder schlechte Entscheidung getroffen haben. Denn Entscheidungsbewertung im Rückblick ist ebenfalls nur eine Simulationsübung.