[1]
Fernand Braudel, Die Dynamik des Kapitalismus. Klett-Cotta 1986.
[2]
https://www.economist.com/business/2014/10/04/philosopher-kings
[3]
Paul Valéry, Le Bilan de l’intelligence [1935]. Allia 2016.
[4]
Gottfried Wilhelm Leibniz, Nova methodus pro maximis et minimis, 1668.
[5]
Zur Geistesgeschichte der KI vgl. Martin Davis, The Universal Computer. W.W. Norton 2000.
[6]
Isaiah Berlin hat in seinen Ausführungen zum Werk John Stuart Mills die schöne Formel des »Rechts auf Irrtum« geprägt.
[7]
Das war das Ergebnis des Colloque Walter Lippmann von 1938, das zu einem wichtigen Bezugspunkt des Neoliberalismus der Nachkriegszeit wurde. Zu diesem historischen Punkt vgl. Serge Audier / Jurgen Reinhoudt, Neoliberalismus – Wie alles anfing: Das Walter Lippmann Kolloquium. kursbuch.edition 2019.
[8]
So bezifferte beispielsweise der Policy Hub des CEPR (Center for Economic Policy Research, mit Sitz in London) 2017 die Quote der Einführung der KI nach Sektoren, von 42 % in der Telekommunikation bis hin zu 18 % in der Tourismusindustrie.
[9]
Für rudimentäre Begriffsdefinitionen zum machine learning, teilweise auch auf Deutsch, vgl. https://developers.google.com/machine-learning/glossary/
[10]
Rob High, The Era of Cognitive Systems: An Inside Look at IBM Watson and How It Works. IBM Corporation, Redbooks 2012.
[11]
John McCarthy erfand den Terminus 1955. Im darauffolgenden Jahr legte die berühmte Konferenz am Dartmouth College das Fundament für die KI als akademische Disziplin.
[12]
Für eine kurze Einführung vgl. Michael Wooldridge, Artificial Intelligence. Penguin 2018.
[13]
Zu dieser Klassifikation vgl. Aurélien Géron, Praxiseinstieg Machine Learning mit Scikit-Learn und TensorFlow: Konzepte, Tools und Techniken für intelligente Systeme. O’Reilly 2018.
[14]
Vgl. Richard Sutton, The Bitter Lesson, 13. März 2019.
[15]
Kant hat diesen Prozess unter dem Terminus der »Subsumtion« beschrieben.
[16]
ami.withgoogle.com
[17]
Natural Language Processing, ein hochgeschätzter Bereich der KI, der dem Computer den Umgang mit Sprache beibringt. Über das Führen von Dialogen hinaus, umfassen Techniken des NLP auch Zusammenfassung, Übersetzung, das Extrahieren von Informationen, die Textherstellung, das Beatworten von Fragen usw.
[18]
Ein Chatbot ist ein »Sprachassistent«, der in der Lage ist, einen menschlichen Gesprächspartner nachzuahmen (schriftlich oder mündlich). Man findet Chatbots besonders häufig im Online-Kundenservice. Wer ist noch nicht im Gespräch mit dem Chatbot eines Telefonanbieters, der sich beharrlich weigert, die Feinheiten unserer Situation zu verstehen, wahnsinnig geworden?
[19]
John Searle, Minds, Brains, and Programs. In: Behavioral and Brain Sciences, Vol. 3, No. 3, 1980.
[20]
Garry Kasparov, Deep Thinking. Where Machine Intelligence Ends and Human Creativity Begins. Public Affairs 2017.
[21]
Edgar Allan Poe, Maelzel’s Chess Player. In: The Southern Literary Messenger, Vol. 2, No. 5, 1836.
[22]
Vgl. Douglas Hofstadter, Die FARGonauten. Über Analogie und Kreativität. Klett-Cotta 1996, vor allem das vierte Kapitel, in dem »Eliza«, einer der ersten Chatbots, beschrieben wird.
[23]
Diese Argumentation wurde von Mike Elgan entwickelt, einem Forscher im Technology Department der University of Missouri.
[24]
Noel Sharkey, The Evitability of Autonomous Robot Warfare. In: International Review of the Red Cross, Vol. 94, No. 886, 2012.
[25]
Der berühmte Kosmologe verkündete im November 2017 beim Web Summit in Lissabon, dass die KI »das schlimmste Ereignis in der Geschichte unserer Zivilisation« werden könnte. In der Folge wies er in zahlreichen Interviews und Artikeln auf die Unmittelbarkeit der Gefahr hin.
[26]
Forscher vom MIT haben entsprechend die Nachbildung einer Schildkröte in 3-D erdacht, die für das menschliche Auge wunderbar zu erkennen ist, sie allerdings mit subtilen »gegenläufigen Störungen« (Motiven, Farben usw.) versehen, sodass die KI die Schildkröte mit einem Gewehr verwechselt hat!
[27]
Stuart Russell / Peter Norvig, Künstliche Intelligenz. Ein moderner Ansatz [1995]. 3., aktualisierte Auflage, Pearson 2012.
[28]
Eine solche Hypothese wird detailverliebt von Max Tegmark als Einleitung seines Buches Leben 3.0. Mensch sein im Zeitalter Künstlicher Intelligenz. Ullstein 2019, ausgebreitet, vgl. das Präludium »The Tale of the Omega Team«.
[29]
Eher unwahrscheinlich: Wissenschaftlern gelingt es heute noch nicht, eine genaue Kopie des Gehirns eines Fadenwurms, Caenorhabditis elegans, zu erzeugen, obwohl es aus nur 302 Neuronen besteht.
[30]
Das ist die Argumentation von Gary Marcus, Psychologieprofessor an der New York University und KI-Spezialist, beispielsweise in seinem Artikel »Artificial Intelligence Is Stuck« (New York Times, 29. Juli 2017).
[31]
Das »symbol grounding problem«: Die KI vermag die Symbole, die sie unablässig hervorbringt, nicht in der korrespondierenden Realität zu verankern. Sie findet sich unfähig, wie im Experiment des Chinesischen Zimmers, Sinn zu produzieren.
[32]
Bostrom nennt das »perverse instantiation«, die Philosophen der KI beschreiben es in einem weiteren Sinne als die Frage des »goal-alignement«.
[33]
Ganz besonders in dieser Passage, die einem den Atem verschlägt: »One can speculate that the tardiness and wobbliness of humanity’s progress on many of the ›eternal problems‹ of philosophy are due to the unsuitability of the human cortex for philosophical work« (sic).
[34]
Tegmark verfolgt diese Illusion bis zum Ende, indem er das Konzept der »substrate independence« aufstellt: Unser Bewusstsein wäre eine einfache agency, ein von aller materiellen Substanz unabhängiges Netzwerk, das also in unzähligen Formen reproduzierbar wäre.
[35]
Vgl. etwa D. Jirak / M.M. Menz / G. Buccino / A.M. Borghi / F. Binkofski, Grasping Language. A Short Story on Embodiment. In: Consciousness and Cognition, Vol. 19, No. 3, 2010.
[36]
Und ganz besonders sein letztes Werk, Im Anfang war das Gefühl. Der biologische Ursprung der menschlichen Kultur. Siedler 2017.
[37]
Antonio Damasio, Der Spinoza-Effekt. Wie Gefühle unser Leben bestimmen. List 2003.
[38]
Baruch de Spinoza, Ethik, Buch 2, Lehrsatz VII, Anmerkung.
[39]
Der grundlegende Aufsatz zu diesem Thema: Jean-François Bonnefon / Azim Shariff / Iyad Rahwan, The Social Dilemma of Autonomous Vehicles. In: Science, Vol. 352, No. 6293, Juni 2016.
[40]
Nach dem Muster des »trolley problem«, das Philippa Foot in den 1960er-Jahren formulierte.
[41]
Das berühmte »hard problem«, das der Philosoph David Chalmers gesetzt hat und zu dem es heute keinerlei Konsens gibt.
[42]
Baruch de Spinoza, Ethik, Buch 2, Lehrsatz XXIII.
[43]
Baruch de Spinoza, Ethik, Buch 3, Lehrsatz II, Anmerkung.
[44]
Vgl. Matej Hoffmann / Rolf Pfeifer, The Implications of Embodiment for Behavior and Cognition: Animal and Robotic Case Studies. In: Wolfgang Tschacher / Claudia Bergomi (Hg.), Implications of Embodiment, Imprint Academic 2012.
[45]
https://www.ibmbigdatahub.com/blog/embodied-cognition-future-ai
[46]
Gilles Deleuze, Logik des Sinns, 12. Serie: Über das Paradox.
[47]
Die Begegnung basiert auf dem Discours de la méthode, der Abhandlung De homine sowie Les Passions de l’âme.
[48]
Gaspard Kœnig, Voyages d’un philosophe aux pays des libertés. Éditions de l’Observatoire, 2018, vgl. das Kapitel über das Grundeinkommen.
[49]
Ebenso wie die »unsichtbare Hand«, die nur zweimal, in einem Nebensatz, im Werk Adam Smiths vorkommt, so gilt auch der »kreativen Zerstörung« nur ein Einschub einiger Seiten in einem Spätwerk Schumpeters, Kapitalismus, Sozialismus und Demokratie. Man muss sich vor Schlagworten hüten, die Nachwelt könnte ein Schelm sein.
[50]
Die Titel der Berichte sprechen für sich selbst: In Defense of Robots (April 2017), False Alarmism: Technological Disruption and the US Labor Market (Mai 2017), The Future of Work (Dezember 2018) usw.
[51]
Daron Acemoglu / Pascual Restrepo, The Race Between Man and Machine. Implications of Technology for Growth, FactorShares and . In: American Economic Review, Vol. 108, No. 6, 2018.
[52]
Edward Alden, The Work Ahead. The Council of Foreign Relations, April 2018.
[53]
The Future of Jobs Report, World Economic Forum 2018.
[54]
David H. Autor, Polanyi’s Paradox and the Shape of Employment Growth. National Bureau of Economic Research 2014.
[55]
Diese Methode des Natural Language Processing wird von dem Wissenschaftler Jim Glass entwickelt, der es sich zum Ziel gemacht hat, die Übersetzungsprogramme zwischen den 7000 Sprachen, die auf der Welt noch gesprochen werden, zu verbessern.
[56]
James Bessen, AI and Jobs: The Role of Demand. Boston University School of Law, Law and Economics Research Paper 2017.
[57]
Man denke an den spektakulären Burn-out Musks im Sommer 2018, der ihn die Tesla-Präsidentschaft gekostet hat.
[58]
Wie Oren Etzioni, der Chef des Allen Institute for Artificial Intelligence, sagt: »Einer der Gründe, warum ich die Diskussionen über Superintelligenz nicht mag, ist der, dass sie von dem ablenken, was wirklich ist.«
[59]
»Lindas Paradox«, das einen wichtigen Platz in Talebs Antifragile einnimmt, ist aus den Forschungen Kahnemans geborgt.
[60]
In seinem Buch Deep Thinking (Public Affairs 2017), in dem er seine Niederlage gegen Deep Blue nachzeichnet und aus ihr allgemeinere Schlüsse über die Technologie zieht.
[61]
Daniel Kahneman, Schnelles Denken, langsames Denken. Siedler 2012. Die folgenden Zitate sind Auszüge aus diesem Werk.
[62]
Nudge ist auch der Titel des programmatischen Buches, das Richard Thaler gemeinsam mit dem Juristen Cass Sunstein geschrieben hat. Das Konzept des »nudge« ist derart zentral für das Verständnis der Mechanismen der KI, dass ich mir erlauben werde, es aus dem Englischen zu borgen.
[63]
Diese Furcht teilt etwa auch der Schriftsteller Marc Dugain in seinem Buch L’Homme nu. La dictature invisible du numérique (Plon 2016), das allerdings etwas nuancierter sein könnte.
[64]
Beispielsweise in seinem Buch Denken: Wie das Gehirn Bewusstsein schafft (Knaus 2014), besonders im Kapitel »Die Zukunft des Bewusstseins«.
[65]
Vgl. Sam Harris, Free Will. Free Press Paper 2012.
[66]
Vgl. Shoshana Zuboff, Das Zeitalter des Überwachungskapitalismus. Campus 2018.
[67]
Dominique Cardon, À quoi rêvent les algorithmes. Nos vies à l’heure des big data. Seuil, 2015.
[68]
In seinem Hauptwerk Le Système technicien (1977) nimmt Ellul die Technik als eine Totalität in den Blick, in Bezug auf welche jegliche Exteriorität unmöglich wird. Er schreibt: »Der Mensch in unserer Gesellschaft verfügt über keinerlei intellektuellen, moralischen oder spirituellen Bezugspunkt, von dem aus er die Technik beurteilen und kritisieren könnte.«
[69]
Jaron Lanier, Zehn Gründe, warum du deine Social Media Accounts sofort löschen musst. Hoffmann und Campe 2018.
[70]
Jaron Lanier, Wem gehört die Zukunft? Du bist nicht der Kunde der Internetkonzerne. Du bist ihr Produkt. Hoffmann und Campe 2014.
[71]
Die Tendenz des Internets, jeden in seinen eigenen Meinungen einzuschließen, ist bereits breit erforscht worden, beispielsweise von Cass Sunstein (sein Buch Republic.com 2.0 bietet eine der ersten Beschreibungen von »Echokammern«) oder Eli Pariser (die den Begriff der »Filterblasen« geprägt hat).
[72]
Facebook hat sich übrigens in einer Studie, die einen Skandal auslöste, damit gerühmt, die Emotionen der Nutzer durch die Reihenfolge der Posts, die auf ihrem Profil erscheinen, manipulieren zu können.
[73]
Elanor Colleoni / Alessandro Rozza / Adam Arvidsson, Echo Chamber or Public Sphere? Predicting Political Orientation and Measuring Political Homophily in Twitter Using Big Data. In: Journal of Communication, Vol. 64, No. 2, 2014.
[74]
Falls Sie Ihren eigenen Suchtgrad messen möchten, haben Forscher eine »Facebook Addiction Scale« entwickelt, einen online verfügbaren Fragebogen.
[75]
Hippocampal and Prefrontal Processing of Network Topology to Simulate the Future, eine Studie von acht Forschern, die im Referenzorgan Nature 2017 veröffentlicht wurde.
[76]
Die sogenannten BATX (Baidu, Alibaba, Tencent, Xiaomi), das Gegenstück der amerikanischen GAFA (Google, Amazon, Facebook, Apple).
[77]
Besonders durch den Übergang vom »ranking«, das auf im Vorfeld fixierten Regeln beruhte, zum »matching«, das auf deep learning basiert.
[78]
Dataclysm. Who We Are When We Think No One’s Looking, von Christian Rudder, dem Mitgründer von OkCupid.
[79]
https://www.facebook.com/notes/mark-zuckerberg/building-global-community/10154544292806634, Februar 2017.
[80]
Das ist die These von Ajay Agrawal, Joshua Gans und Avi Goldfarb in ihrem Buch Prediction Machines. The Simple Economics of Artificial Intelligence (Harvard Business Review Press 2018), das im Valley sehr beliebt ist und mir unter anderem von Hal Varian, dem Chefökonomen von Google, angepriesen wurde.
[81]
Auf Deezer finden man drei seiner Inventionen für Klavier unter dem beredten Titel »Bach by Design« sowie einige Originalkompositionen.
[82]
David Cope, The Algorithmic Composer. A-R Editions 2000.
[83]
Michael Edwards, Algorithmic Composition: Computational Thinking In Music. In: Communications of the ACM, Vol. 54, No. 7, 2011. Sehr beliebt unter Musikern war im 18. Jahrhundert das sogenannte Würfelspiel, eine Art verfrühtes »automatisches Schreiben«. Die Komponisten warfen die Würfel und schrieben die Folge der Noten auf.
[84]
Das Porträt Edmond de Belamy des Kollektivs Obvious, für das 15000 Porträts in ein neuronales Netzwerk eingespeist wurden. Wie wir im ersten Kapitel gesehen haben, reicht das Werk nicht an den »Begriff« des Porträts heran und ist nichts als eine verschwommene Skizze, nicht sehr überzeugend.
[85]
Richard Evans et al., De Novo Structure Prediction With Deep-learning Based Scoring. In: CASP 13, 2018.
[86]
Entsprechend kann man nie zu 100 % sicher sein, dass »morgen die Sonne wieder aufgeht«. Wir können physikalische Gesetze nur aus der Tatsache deduzieren, dass sie sich bisher an jedem Tag wieder erhoben hat, seit der Mensch die betreffende Beobachtung anstellt.
[87]
Vgl. etwa Cristian S. Calude / Giuseppe Longo, The Deluge of Spurious Correlations in Big Data. In: Foundations of Science, Vol. 22, No. 3, 2017.
[88]
Kristoffer Stensbo-Smidt / Fabian Gieseke / Christian Igel / Andrew Zirm / Kim Steenstrup Pedersen, Sacrificing Information for the Greater Good: How to Select Photometric Bands for Optimal Accuracy. In: Monthly Notices of the Royal Astronomical Society, Vol. 464, No. 3, 2016.
[89]
Vgl. Hongyao Ma / Fei Fang / David Parkes, Spatio-Temporal Pricing for Ridesharing Platforms. In: TSMO 18, Februar 2018. Die Forscher zeigen den ökonomischen Vorteil des dispatch gegenüber einem System der Anreize. Diese Art und Weise, das Wohlergehen eines jeden zu optimieren, funktioniert nur unter der Annahme einer vollständig verfügbaren Information.
[90]
Vgl. Friedrich August Hayek, Recht, Gesetz und Freiheit. Mohr-Siebeck 2003.
[91]
Friedrich August Hayek, Der Weg zur Knechtschaft. Rentsch 1943.
[92]
Hayek entwickelt diesen Gedankengang in einem 1945 für die American Economic Review geschriebenen Artikel mit dem Titel The Use of Knowledge in Society.
[93]
Donald H. Berman / Carole D. Hafner, The Potential of Artificial Intelligence to Help Solve the Crisis in Our Legal System. In: Communications of the ACM, Vol. 32, No. 8, 1989. Die KI wird eingesetzt, um durch die Analyse der Gesetzgebung und Rechtsprechung die juristische Entscheidungsfindung zu beschleunigen.
[94]
Julia Dressel / Hany Farid, The Accuracy, Fairness, and Limits of Predicting Recidivism. In: Science Advances, Vol. 4, No. 1, 2018.
[95]
Accountability, Responsibility and Transparency (ART). Vgl. beispielsweise Virginia Dignum, Responsible Artificial Intelligence: Designing AI for Human Values, September 2017.
[96]
Shai Danziger / Jonathan Levav / Liora Avnaim-Pesso, Extraneous Factors in Judicial Decisions. In: Proceedings of the National Academy of Sciences, Vol. 108, No. 17, 2011.
[97]
Vgl. Cesare Beccaria, Dei delitti e delle pene (Von den Verbrechen und von den Strafen, 1764), ganz besonders das Kapitel 4: »Richter haben keinerlei Recht, die Strafgesetze auszulegen, weil sie selbst keine Gesetzgeber sind.«
[98]
»Loss of agency«, eine schwer zu übersetzende Formulierung.
[99]
Trotz zahlloser Nachfragen und trotz eines Kontaktes, der bereit war, mit mir zu reden, untersagte die Abteilung für Kommunikation des LAPD jedes Gespräch. Ich musste mich also damit zufriedengeben, mit seinen Gegnern zu sprechen, wie wir in Kapitel 6 sehen werden.
[100]
Vgl. etwa David Vladeck, Machine Without Principals. Liability Rules and Artificial Intelligence. In: Washington Law Review, Vol. 89, No. 1, 2014.
[101]
Diese Annahme ist grundlegend für das europäische, aber auch das amerikanische Recht, wie eine Entscheidung des Obersten Gerichtshofes von 1952 (Morissette v. United States) zeigt: »[Personal intentionality] is as universal and persistent in mature systems of law as belief in freedom of the human will and a consequent ability and duty of the normal individual to choose between good and evil.«
[102]
Für eine präzise Typologie der verschiedenen Typen algorithmischer Verzerrung vgl. Algorithmic Bias in Autonomous Systems von David Danks und Alex John London, 2017.
[103]
Der »Holberton-Turing-Eid«, eine ethische Grundsatzerklärung, die von zwei Informatikerinnen aufgestellt wurde, beginnt mit folgenden Worten: »Ich werde die höchste Achtung vor jedem menschlichen Leben beobachten. Ich werde es nicht erlauben, dass Gedanken an Alter, Krankheit oder Behinderung, Glaube, Herkunft, Gender, Nationalität, politische und religiöse Überzeugung, Rasse, sexuelle Orientierung, sozialen Stand oder andere Faktoren meiner Pflicht im Wege stehen.«
[104]
Die afroamerikanische Forscherin Joy Buolamwini wurde zum Opfer eines solchen Irrtums. Sie konnte zeigen, dass der Roboter sie besser erkennt, wenn sie eine weiße Maske trägt. Vgl. Joy Buolamwini / Timnit Gebru, Gender Shades. Intersectional Accuracy Disparities in Commercial Gender Classification. In: Conference on Fairness, Accountability and Transparency, 2018.
[105]
Haibo He / Edwardo A. Garcia, Learning From Imbalanced Data. In: IEEE Transactions on Knowledge & Data Engineering, No. 9, 2008. Die Autoren rekapitulieren die verschiedenen Methoden, die es erlauben, signifikative Ergebnisse für die unterrepräsentierten Gruppen eines Datensatzes zu erzielen.
[106]
Gillian Tan / Katia Porzecanski, Wall Street Rule for the #MeToo Era: Avoid Women at All Cost. Bloomberg, 3. Dezember 2018. Dieser Artikel zeigt die negativen Auswirkungen der #MeToo-Bewegung auf die Beförderung von Frauen.
[107]
Society for Human Ressource Management 2018, Harassment-Free Workplace Series: The Executive View Topline Report. Die interviewten Männer erklären, dass sie es vermeiden, »mit Frauen zu sprechen« und »sich mit einer Frau in einem geschlossenen Raum aufzuhalten«, oder darauf achten, »zu Frauen mindestens einen Meter auf Abstand zu gehen«.
[108]
In theoretischer Hinsicht markiert dieses Umschwenken den Übergang von einer europäischen Auffassung der KI, wie sie unter anderem von der Max-Planck-Gesellschaft verteidigt wird und in der der Algorithmus an unser tatsächliches Verhalten angepasst sein muss, um eine Art von natürlicher Evolution zu reproduzieren, hin zum Ansatz der amerikanischen Schule (etwa der Harvard Business School), die von der KI fordert, unsere Entscheidungen wieder rationaler zu machen. Auf diese Unterscheidung hat mich die Forscherin Julia Puaschunder, der wir schon begegneten, hingewiesen.
[109]
So diskutierte man beispielsweise en détail die Erträge, die die königlichen Manufakturen abwarfen.
[110]
Thomas Fletcher, The Naked Diplomat. Understanding Power and Politics in the Digital Age. William Collins 2017.
[111]
So schloss Facebook etwa im Mai 2018 die Seite der »Identitären«, einer rechtsextremen Organisation, die gewiss verachtenswert ist, aber in keiner Weise illegal.
[112]
Diese Idee, die zur Eröffnung des 13. Internet Governance Forum im November 2018 entwickelt wurde, soll zusammen mit Facebook »ausprobiert« werden, um »gegen Hasskommentare zu kämpfen«.
[113]
Vgl. etwa Robert D. Atkinson, The Location Privacy Protection Act of 2014. Dieser Bericht wurde im Juni 2014 dem Senate Judiciary Subcommittee on Privacy, Technology and the Law vorgelegt.
[114]
Vgl. beispielsweise für den Finanzsektor Alain Clot, L’économie numérique à l’assaut de la finance. In: Annales des Mines – Réalités industrielles, Vol. Februar 2019, No. 1, 2019.
[115]
Vgl. Hila Mehr, Artificial Intelligence for Citizen Services and Government. Harvard Ash Center Technology and Democracy Fellow, August 2017: »Wenn auch die aktuellen Anwendungen der KI im Bereich der Politik noch hinter den Anwendungen im privaten Bereich zurückbleiben, so sind die Einsatzgebiete doch vergleichbar.«
[116]
Alexis de Tocqueville, Über die Demokratie in Amerika, 2. Band, 2. Teil, 14. Kapitel.
[117]
Besonders in seinem Erfolgsbuch Der Zerfall der Demokratie. Wie der Populismus den Rechtsstaat bedroht. Droemer 2018.
[118]
Ich habe versucht, ihn auf meine Art zu interpretieren, vgl. Gaspard Kœnig, Leçons sur la philosophie de Gilles Deleuze. Ellipses 2013.
[119]
Zum Zusammenhang von deleuzianischem Rhizom und digitalen Werkzeugen vgl. (um mich nicht zu wiederholen) eines meiner älteren Bücher: Le Révolutionnaire, l’expert et le geek (Plon 2015), besonders das Kapitel »Quand le réseau devient rhizome«.
[120]
Gilles Deleuze, Logik des Sinns, 15. Serie: Von den Singularitäten.
[121]
Besonders von Luc Ferry und Alain Renault, die darin in ihrem Essai La Pensée 68 eine Form von »Antihumanismus« ausmachten.
[122]
Gilles Deleuze, Postskriptum über die Kontrollgesellschaften. In: Ders., Unterhandlungen. 1972–1990. Suhrkamp 1993.
[123]
Diese Bewegung habe ich im letzten Teil von Le Révolutionnaire, l’expert et le geek beschrieben und sie mit Borges’ Novelle Das unerbittliche Gedächtnis in Beziehung gesetzt.
[124]
Martin Chorzempa / Paul Triolo / Samm Sacks, China’s Social Credit System. A Mark of Progress or a Threat to Privacy? In: PIIE, Juni 2018.
[125]
So rühmt Niall Ferguson etwa in seinem Buch Der Westen und der Rest der Welt. Die Geschichte vom Wettstreit der Kulturen (Propyläen 2011) die sechs »Killerapplikationen« des Westens: Wettbewerb, Wissenschaft, Eigentum, Medizin, Konsum und Arbeitsmoral.
[126]
Vgl. beispielsweise den im MIT Sloan Management Review erschienenen Aufsatz Lessons From China’s Digital Battleground von Shu Li, François Candelon und Martin Reeves, Sommer 2018.
[127]
Für eine nuanciertere Analyse der Kapazitäten Chinas bezüglich der technologischen und kommerziellen KI-Entwicklung vgl. den Bericht des Future of Humanity Institute in Oxford, Deciphering China’s AI Dream, von Jeffrey Ding, März 2018.
[128]
Später las ich in einem Interview, dass nach Kai-Fu Lees Einschätzung Europa bereits aus dem Spiel um die KI ausgeschieden ist. Nicht einmal eine Bronzemedaille. Unbedeutend, überholt, im Todeskampf begriffen.
[129]
Ma Huateng, China auf Knopfdruck: Mobiles Internet und soziale Transformationen in einem aufstrebenden Land. Europäischer Universitätsverlag 2020.
[130]
Die Ursachen für dieses Phänomen sind unter Historikern immer noch ein Diskussionsgegenstand. Vgl. etwa Kenneth Pomeranz, The Great Divergence. Princeton University Press 2000.
[131]
Vgl. etwa den vielbeachteten Essay des New-Yorker-Korrespondenten Evan Osnos, Age of Ambition. Chasing Fortune, Truth, and Faith in the New China, FSG, 2014.
[132]
Gaspard Kœnig, Les Aventuriers de la liberté. Plon 2016.
[133]
Diese kaum politisch korrekte Definition findet sich in Joseph Alois Schumpeters Theorie der wirtschaftlichen Entwicklung, im Kapitel »Das Grundphänomen der wirtschaftlichen Entwicklung«.
[134]
Diese unausweichlich gewordene Formulierung geht auf Dan Senor und Saul Singer und ihr Buch Start-up Nation Israel. Was wir vom innovativsten Land der Welt lernen können (Hanser 2012) zurück.
[135]
Der sogenannte »attention mechanism«, der die Vorhersagekapazität verbessert.
[136]
Vgl. etwa Engin Bozdag, Bias in Algorithmic Filtering and Personalization. In: Ethics and Information Technology, Vol. 15, No. 3, 2013.
[137]
Über die Verbreitung von Verschwörungstheorien durch den »Schneeballeffekt« vgl. Michela Del Vicario et al., The Spreading of Misinformation Online. In: Proceedings of the National Academy of Sciences, Vol. 113, No. 3, 2016.
[138]
Philippe Aghion / Benjamin Jones / Charles Jones, Artificial Intelligence and Economic Growth, National Bureau of Economic Research 2017.
[139]
Paul Claudel, »Visite«, in: Connaissance de l’Est, Mercure de France 1900.
[140]
Diese Argumentation wurde von Lutfey Siddiqi entwickelt, Professor an der London School of Economics, vgl. Confronting the macroeconomic challenges of the fourth industrial revolution. In: LSE Business Review 2018.
[141]
Dieses Phänomen wurde von Finbarr Livesey, einem Geopolitikforscher in Cambridge, studiert, vgl. From Global to Local. The Making of Things and the End of Globalisation. Pantheon 2017.
[142]
Nicolas Miailhe, Géopolitique de l’intelligence artificielle. Le retour des empires? In: Politique étrangère, No. 3, 2018.
[143]
Baruch de Spinoza, Ethik, Buch 5, Lehrsatz IV, Anmerkung.
[144]
Niemals um eine griffige Formel verlegen nennt Taleb dieses Phänomen den »fooled by data effect«.
[145]
Vgl. Ugo Bardi / Sara Falsini / Ilaria Perissi, Toward a General Theory of Societal Collapse. A Biophysical Examination of Tainter’s Model of the Diminishing Returns of Complexity. In: Biophysical Economics and Resource Quality, Vol. 4, No. 1, 2019.
[146]
Kenneth O. Stanley, Why Greatness Cannot Be Planned. The Myth of the Objective. Springer 2015.
[147]
Vgl. etwa das bereits genannte Prediction Machines von Ajay Agrawal, Joshua Gans und Avi Goldfarb.
[148]
Der französische Philosoph Bernard Stiegler verteidigte eine entsprechende »negentropische« Haltung gegenüber der Maschine.
[149]
Dieses Argument wurde vor kurzem wieder von dem Mathematiker Nicolas Gisin aufgenommen, namentlich in seinem Aufsatz Time Really Passes, Sciences Can’t Deny That. In: Renato Renner / Sandra Stupar (Hg.), Time in Physics, Birkhäuser 2017.
[150]
Vgl. Les Passions de l’âme, § 41: Von der Macht der Seele über den Körper.
[151]
Vgl. Jean-Paul Sartre, L’Être et le Néant. Gallimard 1943, vor allem das Kapitel »Freiheit und Verantwortlichkeit«, wo es heißt: »Es ist die Eigenart der menschlichen Realität, daß sie ohne Entschuldigung ist.«
[152]
Dominique Cardon, À quoi rêvent les algorithmes. Nos vies à l’heure des big data. Seuil, 2015.
[153]
Essais de Théodicée, Erster Teil, § 55.
[154]
Gemeinsam mit Richard Dawkins, Sam Harris und Christopher Hitchens, mit denen er das Buch The Four Horsemen, mit einem Vorwort von Stephen Fry. Bantam Press 2019, veröffentlicht hat.
[155]
Ich stütze mich auf zwei Texte Dennetts: das neuere Von den Bakterien zu Bach – und zurück. Die Evolution des Geistes (Suhrkamp 2018) sowie das ältere Brainstorms. Philosophical Essays on Mind and Psychology (Bradford 1978), besonders das Kapitel »On Giving Libertarians What They Say They Want«.
[156]
Vgl. Andrea Lavazza, Free Will And Neuroscience. From Explaining Freedom Away to New Ways of Operationalizing and Measuring It. In: Frontiers in Human Neuroscience, Vol. 10, No. 262, 2016.
[157]
Alexander Prescott et al., Readiness Potentials Driven by Non-Motoric Processes. In: Consciousness and Cognition, No. 39, 2016.
[158]
Matthias Schultze-Kraft et al., The Point of No Return in Vetoing Self-initiated Movements. In: Proceedings of the National Academy of Sciences, Vol. 113, No. 4, 2016.
[159]
Sheng Li / Stephen D. Mayhew / Zoe Kourtzi, Learning Shapes the Representation of Behavioral Choice in the Human Brain. In: Neuron, Vol. 62, No. 3, 2009.
[160]
Marc Wittmann / Martin P. Paulus, Decision Making, Impulsivity and Time Perception. In: Trends in Cognitive Sciences, Vol. 12, No. 1, 2008.
[161]
Shaun Larcom / Ferdinand Rauch / Tim Willems, The Benefits of Forced Experimentation: Striking Evidence From the London Underground Network. In: The Quarterly Journal of Economics, Vol. 132, No. 4, 2017. »Ein Nutzer von zwanzig bleibt bei der neu gewählten Route, weil seine alte Route suboptimal gewesen ist.«
[162]
Jonah Lehrer, The Decisive Moment. How the Brain Makes Up Its Mind, Canongate Books 2009.
[163]
Angefangen bei einem bedingungslosen Grundeinkommen, das einem jeden die konkrete Chance einräumt, seine Entscheidungen zu treffen. Um sich in diese leidenschaftliche Debatte zu stürzen und alle ihre Facetten zu erfassen, vgl. Philippe Van Parijs / Yannick Vanderborght, Ein Grundeinkommen für alle? Geschichte und Zukunft eines radikalen Vorschlags. Campus 2005.
[164]
Toru Ishikawa et al., Wayfinding with a GPS-based Mobile Navigation System. A Comparison With Maps and Direct Experience. In: Journal of Environmental Psychology, Vol. 28, No. 1, 2008. Diese japanische Studie zeigt bei GPS-Nutzern eine Atrophie des Hippocampus sowie eine einschlägige Reduktion der Orientierungsfähigkeit in einem neuen Gelände.
[165]
Das »right to err«, in Isaiah Berlin, Freiheit. Vier Versuche. Fischer 2006, Kapitel 4 »John Stuart Mill und die Ziele des Lebens«.
[166]
Finn Brunton / Helen Nissenbaum, Obfuscation. A User’s Guide for Privacy and Protest. MIT Press 2016.
[167]
Stop the LAPD Spying Coalition, Before the Bullets Hit the Body. Dismantling Predictive Policing in Los Angeles, Mai 2018.
[168]
Vgl. Matthieu Ricard / Wolf Singer, Jenseits des Selbst. Dialoge zwischen einem Hirnforscher und einem buddhistischen Mönch. Suhrkamp 2017.
[169]
Vgl. Barbara Sahakian / Jamie Nicole LaBuzetta, Bad Moves. How Decision Making Goes Wrong, and the Ethics of Smart Drugs. Oxford University Press 2013.
[170]
In diesem Fall ist der englische Ausdruck sehr viel bequemer: »frontloading the free will«.
[171]
Vgl. Gary Marcus (der uns bereits am MIT zur Frage der Kausalität begegnet ist), Innateness, AlphaZero, and Artificial Intelligence. New York University 2018.
[172]
Andreas Holzinger et al., Towards Interactive Machine Learning (iML). Applying Ant Colony Algorithms to Solve theTraveling Salesman Problem With the Human-in-the-loop Approach. In: Proceedings of the International Conference on Availability, Reliability, and Security, Springer 2016.
[173]
Robert J. Jasper / Leslie M. Blaha, Interface Metaphors for Interactive Machine Learning. In: Proceedings of the International Conference on Augmented Cognition, Springer 2017.
[174]
Saleema Amershi et al., Power to the People. The Role of Humans in Interactive Machine Learning. In: AI Magazine, Vol. 35, No. 4, 2014.
[175]
Für den technischen Aspekt vgl. Leo Iaquinta et al., Introducing Serendipity in a Content-based Recommender System. In: Eighth International Conference on Hybrid Intelligent Systems, IEEE 2008.
[176]
Vgl. Evgeny Morozov, Smarte neue Welt. Digitale Technik und die Freiheit des Menschen. Blessing 2013.
[177]
Vgl. sein bereits genanntes Buch Wem gehört die Zukunft? Hoffmann und Campe 2014.
[178]
Vgl. den grundlegenden Forschungsaufsatz Should We Treat Data as Labor? Moving Beyond Free, American Economic Association Papers 2017, von Glen Weyl, Jaron Lanier und drei weiteren Forschern von der Stanford und der Columbia University.
[179]
Vgl. Brittany Kaisers in der Financial Times veröffentlichte Kolumne Facebook Should Pay its 2bn Users for Their Personal Data, 9. April 2018.
[180]
Fall Carpenter v. United States, Justice Gorsuch, dissenting, Juni 2018.
[181]
Gouverneur Gavin Newsom, State of the State Address, 12. Februar 2019.
[182]
Ich habe diese Option bereits en détail in einem älteren Buch verteidigt (das bereits genannte Les Aventuriers de la liberté, im Kapitel über die Hacker) und ebenso in den Veröffentlichungen meines Think-Tanks GenerationLibre (Mes data sont à moi, Januar 2018) behandelt.
[183]
Ganz besonders L’Économie rurale et la vie des campagnes dans l’Occident médiéval. Aubier 1962.
[184]
Thomas Hobbes, Leviathan, Kapitel 13, »Zustand des Menschen, in Bezug auf Glückseligkeit des Erdenlebens«.
[185]
Michael Crosby et al., Blockchain Technology. Beyond Bitcoin. In: Applied Innovation, No. 2, 2016.
[186]
Für die philosophischen Grundlagen vgl. das bereits erwähte Voyages d’un philosophe aux pays des libertés (Kapitel über Brasilien) und für die technische Konzeption vgl. den gemeinsam mit Marc de Basquiat verfassten Bericht LIBER (GénérationLibre 2014).
[187]
Vgl. Mark Zuckerbergs Kolumne in der Washington Post, The Internet Needs New Rules, 30. März 2019.
[188]
In diesem Sinne stellen die Principles on Artificial Intelligence der OECD, die im Mai 2019 von 42 Ländern unterzeichnet wurden, eine Keimzelle einer kollektiven governance dar.
»Sorry, I can’t help you.« Das war die lakonische Antwort von Eliezer Yudkowsky, einem der führenden Forscher zur Künstlichen Intelligenz (KI) im Silicon Valley, auf meine Gesprächsanfrage. Besser kann man die Kluft kaum beschreiben, die sich zwischen den Herren der Technologie und der Öffentlichkeit aufgetan hat, zwischen den Schöpfern der Algorithmen und denen, die unter ihrer Herrschaft leben, zwischen denen, die die Zeilen des Codes schreiben, und denen, die versuchen sie zu verstehen.
Sorry I can’t help you. Anders gesagt: Im Grunde würde ich ja gerne, aber ich kann wirklich nicht. Wie sollte ein Barbar, der nie etwas programmiert hat, wie sollte ein Uneingeweihter, der schon seine liebe Mühe mit PowerPoint hat, jemals die Feinheiten des deep learning verstehen können? Hier ist das Ziel, to make the world better. Es geht nicht darum, Fragen zu stellen, sondern Probleme zu lösen. Philosophische Bedenken, ein Luxus müßiger Köpfe, stehen nicht auf der Tagesordnung. Das ist die Antwort, die Gorgias Sokrates gibt: Die Kindereien müssen aufhören.
Sorry I can’t help you. Es würde mich nicht wundern, wenn das eine automatisch von Gmail generierte Nachricht gewesen ist. Herr Yudkowsky erhält gewiss zahlreiche Anfragen dieser Art. Ein Algorithmus muss sie nur als solche erkennen, um sogleich die bevorzugte Antwort vorzuschlagen. Was könnte natürlicher sein, als dass eine KI Anfragen zur KI verwaltet?
Nichtsdestotrotz ist der Gesprächsbedarf groß wie nie. Wir müssen zusammenhalten, um die gewaltige Umwälzung verstehen zu können, die unsere Gesellschaften in Unruhe versetzt, die Karten unserer Wirtschaftssysteme neu mischt, unsere politischen Strukturen erschüttert, in unser Dasein eindringt und uns in den Zwiespalt aus Fortschrittsoptimismus und Zukunftsangst setzt. Kam es in der Vergangenheit zu technologischen Umbrüchen, konnten Denker, Erfinder, Forscher, Investoren und Politiker an gemeinsamen, einheitlichen Orten zusammenkommen, den neuralgischen Punkten der »Weltwirtschaften«, wie sie Fernand Braudel beschrieben hat. Diese Weltstädte waren nicht nur wirtschaftliche Schnittpunkte, sondern auch Orte der Hochkultur. »Pracht, Reichtum und Lebensglück gruppieren sich im Zentrum der Weltwirtschaft, in seinem Kern. Die Sonne der Geschichte lässt dort ihre schönsten Farben leuchten.«[1] So pflanzte Spinoza die Samen einer Philosophie der Immanenz in Amsterdam, der Hauptstadt des Goldenen Zeitalters, so konnte Adam Smith in Edinburgh, dem Herz der industriellen Revolution, den Kapitalismus systematisieren, und so konnte Karl Marx im viktorianischen London den Klassenkampf verstehen. Städte fungierten als Anziehungspunkte und intellektuelle Schmelztiegel. Übersprudelnde Geister versuchten sich dort an fremdartigen, gewagten und teilweise wunderlichen Fusionen. Heute hingegen muss man feststellen, dass die klugen Köpfe viel weiter verstreut sind. Niemand kann das globale Zentrum der KI bezeichnen. Selbst das Silicon Valley mit seinen Schlafstädten kann nicht als ein Ausbund an »Lebensglück« durchgehen; San Francisco ist eine der teuersten Städte der Welt geworden, aus der die jungen Neuerer verdrängt werden; die kalifornische Gegenkultur der 1970er-Jahre hat sich aufgelöst in einer offenkundigen Gleichgültigkeit gegenüber allem, was mit Geisteswissenschaften zu tun hat – als hätte die Leidenschaft für den Wandel jegliches Nachdenken über den Menschen über Bord geworfen, als ob der Mensch ein formbarer Teig ohne Biologie und ohne Geschichte wäre. Der Economist hat übrigens vor einigen Jahren den Anführern der Tech-Branche nahegelegt, sie sollten Philosophieunterricht nehmen, ohne Erfolg.[2] Gibt es keine Weltstädte mehr?
Der Zweck und das Bemühen meiner langen Forschungsreise in die Gefilde der KI war es also, eine Art virtuelle Weltstadt zu rekonstruieren, eine Brücke zwischen dem Aufblitzen der Technologie und dem Dauernden der Metaphysik zu schlagen. Im Laufe mehrerer Monate habe ich mich mit 125 Spezialisten getroffen, die entweder offenherziger waren als Eliezer Yudkowsky oder einfach zermürbt von meinen unaufhörlichen Nachfragen: Forscher, Unternehmer, Investoren, Professoren, Gesetzgeber, Künstler. Ich wollte ihnen dort begegnen, wo sie leben und arbeiten, in ihrem natürlichen Lebensraum aus Computern und verstopften Straßen, und das hat mich dazu gebracht, westwärts einmal die Welt zu umrunden: Cambridge, Oxford, Boston, New York, Washington, San Francisco, Los Angeles, Shanghai, Peking, Tel Aviv, Kopenhagen und schließlich Paris. Auf diesem Weg habe ich lange ernsthaft geglaubt, ich könnte dem Lauf der Sonne einige Stunden stibitzen und meine Existenz um einen Tag verlängern, bis mir beim Überfliegen der Beringstraße klar wurde, dass die Datumsgrenze, die durch den 180. Längengrad verläuft, mir alles wieder weggenommen hat. Ich hatte den gleichen Fehler gemacht wie Phileas Fogg, nur umgekehrt. Damit möchte ich nur sagen, wie wissenschaftlich ich denke.
Die Reise war ganz und gar keine Erholung. Sie begann in den europäischen KI-Laboren von Facebook, wo Grundlagenforschung betrieben wird. Als ich eine junge Frau sah, die in tausenden Zeilen Code auf einem halben Dutzend Bildschirmen vor sich völlig aufging, wurde mir bewusst, dass ich mich unvernünftigerweise in das Heiligtum vorgewagt hatte und dass man die Ikonostase nur unter Gefahren durchschreiten kann. In diesem speziellen Fall hatte sich die Forscherin vorgenommen, die Bewegungen der Objekte in einer Straße ausgehend von einem einfachen Bild automatisiert vorherzusagen: Wird dieses Auto losfahren, wird jener Fußgänger die Straße überqueren, wird dieses Kind seinen Ball fallen lassen? Ich wich instinktiv einen Schritt zurück, vielleicht aus Angst vor dem Erscheinen einer Zeile, die mein eigenes Verhalten beschreiben könnte, als ob diese Millionen und Abermillionen von Einsen und Nullen die Gesamtheit der vergangenen und zukünftigen Realität enthalten könnten.
Das war für mich noch lange nicht das Ende des Schreckens. Einige Tage später nutzte Aurélie Jean, eine junge Informatikern und Absolventin des Massachusetts Institute of Technology (MIT), geradezu tollkühn eine gemeinsame Fahrt mit dem TGV, um mich in Python einzuführen, eine der berühmtesten Programmiersprachen. Was mich schließlich traumatisierte, war der Anblick von Aurélies Bildschirm, wo es nicht nur Ordner und Dateien gab, sondern auch ein einfaches schwarzes Fenster voll kabbalistischer Zeichen. Denn Aurélie ließ sich, wie viele ihrer Kollegen, nicht dazu herab, ganz trivial mit einer Maus auf die allzu bequemen Symbole einer Benutzeroberfläche zu klicken. Sie arbeitet unter der Motorhaube der Maschine, in größerer Nähe zu ihren grundlegenden Funktionen. Sie gibt die Befehle direkt ein. Anstatt beispielsweise einen Ordner zu öffnen, um auf ein Textdokument zuzugreifen, befiehlt sie dem Computer in einer Sprache, die er versteht, das Dokument zu suchen. Sie hat so das Gefühl, auf eine natürlichere Art und Weise mit dem digitalen Werkzeug zu kommunizieren. Wir Uneingeweihten sind demgegenüber wie Kinder, die Kuchenstücke hinzufügen und wegnehmen müssen, um einfache mathematische Aufgaben zu lösen: Wir brauchen eine bildliche Darstellung (genau das war übrigens das Erfolgsrezept von Microsoft und Apple in den 1980er-Jahren). Aurélie hingegen schreibt unmittelbar in die Kommandozeile. Sie kann auf eine ganze symbolische Ebene, die graphische Schnittstelle, verzichten. »Und es geht schneller«, sagt sie mir dann auch noch, während ihre Tastatur wie ein Maschinengewehr rattert.
Die KI vervielfältigt solche Tücken und Fallstricke, die die Neugierigen entmutigen. Sie scheint sich mit Vorliebe in den verstopftesten Städten dieser Welt zu entwickeln; nach dutzenden Stunden im stehenden Verkehr verstehe ich die Leidenschaft der Geeks für die Intelligente Stadt und autonome Autos besser. Vor allem aber ist diese revolutionärste Technologie der letzten Jahrzehnte eingebettet in eine mysteriöse Wissenschaft. Es gibt nur wenige Überblickswerke, die für Uneingeweihte bestimmt sind. Ich werde nicht so tun, als hätte ich es auch nur durch die Einleitung von Artificial Intelligence von Stuart Russell und Peter Norvig, der Bibel für Informatikstudenten, geschafft. Kaum hat man eine Handvoll Definitionen und einige historische Bezüge verstanden, wird die Materie extrem technisch, und das rief in mir die freudlose Erinnerung an all die Gründe wach, warum ich in der Oberstufe des Lycée nach einigen Wochen Martyrium den naturwissenschaftlichen Zweig verließ und zum neusprachlichen Zweig wechselte. Dennoch denke ich nun, nach langer Lektüre und vielen Gesprächen über die KI, eine gewisse Ahnung zu haben, eine teinture, wie Montaigne sagt, um unsere immerzu unvollständigen Kenntnisse zu bezeichnen. Eine teinture, die notwendig ist, wenn auch nie hinreichend, um sich als Philosoph auszugeben. Eine Ahnung, die geprägt ist von Zufällen, Entdeckungen, Obsessionen: einen Teil Glück und einen Teil Unglück, einen Teil Offenbarung und einen Unwissenheit muss man in einer Reportage akzeptieren. Bei der Ankunft in einer Stadt war mein Terminplan oft zur Hälfte leer und füllte sich mit meinen Begegnungen nach und nach. Zu einer solchen absichtslosen Zufälligkeit, die die KI sicherlich gerne abschaffen würde, habe ich mich auf meinen Erkundungen bekannt.
Während meiner vier Wochen an der amerikanischen Westküste habe ich nur ein einziges Mal ein Büro betreten, in dem sich die Regale unter Klassikern bogen. In der Stiftung von Peter Thiel in Los Angeles hatte ich plötzlich wieder Boden unter den Füßen, in Gestalt der Pléiade-Bände von Saint-Simon und der Werke von René Girard. Zu meiner Überraschung entdeckte ich im Wartezimmer sogar ein Exemplar von Pascals Discours sur la condition des grands. Es wäre ganz gewiss sinnvoll für einen Tech-Unternehmer auf der Höhe der Kapitalbeschaffung, sich hin und wieder an die Unterscheidung zwischen grandeur d’établissement und grandeur naturelle erinnert zu sehen. Erstere ist mit dem sozialen Status verknüpft und impliziert eine völlig legitime Achtung vor den Mächtigen, allerdings kann sie kein vorgreifendes Urteil über die tatsächlichen menschlichen Qualitäten fällen, die mit der letzteren bezeichnet werden. Pascal ist kein Revolutionär. Er empfiehlt uns nicht, die Mächtigen und Großen dieser Welt zu stürzen, sondern lädt uns dazu ein, einen »doppelten Gedanken« wachzuhalten, der zwischen sozialen Konventionen und moralischen Tugenden unterscheiden kann. Das ist genau die richtige Empfehlung für unsere Unternehmer, die sich mit dem falschen Schein der Authentizität, mit Emojis und Selfies umgeben und so tun, als wüssten sie nichts über die Zusammenhänge von Macht und Kapital, die ihre Beziehung zu anderen Menschen bestimmt. Verwechseln auch sie ihre grandeur d’établissement mit einer grandeur naturelle?
Denn die Etikette im Silicon Valley steht der Etikette an den Höfen von einst um nichts nach. Die Coolness hat ihre eigenen Codes hervorgebracht, an die man sich unbedingt zu halten hat, wenn man in diesem Ökosystem permanenten Wettbewerbs vorankommen oder auch nur schlichtweg existieren will. Ich habe sehr schnell festgestellt, dass eine einzelne, mit Schwung und besten Absichten verschickte E-Mail (»Hi Mark! I am a French philosopher«)Think different,bullet-pointsGoogle CalendarPosts
GPSInsiderventure capital TED
venture capitalistliken
meeting
Nichtsdestotrotz muss man der wohlfeilen Versuchung der Technophobie widerstehen. In der Rückschau sehen die Propheten der Apokalypse recht lächerlich aus. So etwa Paul Valéry, der vor gut einem Jahrhundert die »schleichende Vergiftung« des technischen Fortschritts anprangerte und sich (damals schon!) über das Verschwinden der freien Zeit beklagte, über die Neigung, Bücher eher durchzublättern, als sie zu lesen, über die Diktatur der Emotion. »Weder Post noch Telefon haben Platon belästigt«, klagt Valéry.[3] Der arme Dichter, den der Postbote gestört hat! Was hätte er zu Push-Nachrichten und Tweets gesagt! Ich muss mich, und so auch den Leser, zu dem Versuch zwingen, die eigene Epoche zu verstehen, ohne sie zu verfluchen.
calculus ratiocinator[4]
[5]Per Anhalter durch die Galaxis,
Computer Science MITKIEthikDeus sive Natura
French TheoryKIKI
Homo deusKIKI[6]
KIKIKIKInudge
Der Liberalismus hat im Laufe seiner turbulenten Geschichte zahlreiche Krisen gesehen. Am Ende des Börsenkrachs von 1929 musste er die zu radikale Vorstellung des aufgeben und die Notwendigkeit staatlicher Regulierung zugestehen. Heute muss uns die dazu bewegen, die Vorrangstellung der individuellen Rationalität zu hinterfragen: Vielleicht ist nicht jede freiwillige (nichterzwungene) Handlung auch »frei«. Wenn man sich dieser Frage nicht stellt, könnte das gesamte liberale Gebäude zusammenbrechen, an dem seit dreihundert Jahren gebaut wird.