image

image

TIMO DAUM, geboren 1967, arbeitet als Hochschullehrer in den Bereichen Online, Medien und Digitale Ökonomie. Er ist studierter Physiker und verfügt über zwei Jahrzehnte Berufserfahrung in der IT-Branche. Er veranstaltet Seminare und hält Vorträge zur Thematik des digitalen Kapitalismus.

Sein Buch Das Kapital sind wir. Zur Kritik der digitalen Ökonomie (Edition Nautilus 2017) wurde mit dem Preis »Das politische Buch 2018« der Friedrich-Ebert-Stiftung ausgezeichnet. Timo Daum lebt in Berlin.

TIMO DAUM

DIE KÜNSTLICHE INTELLIGENZ DES

KAPITALS

image

image

Edition Nautilus GmbH

Inhalt

image

Einleitung

Der Frühling der KI · Digitaler Kapitalismus · Warum gerade jetzt?

image

Kurze Geschichte einer kontroversen Disziplin

Können Maschinen denken? · Ein Marketing-Coup · Was ist eigentlich Intelligenz? · Soziale Halluzinationen

image

Der Digitale Kapitalismus

Der Hunger nach Daten · Die Logik der Plattformen · »Acht Stunden sind kein Tag« · Eine neue gesellschaftliche Betriebsweise

image

Menschen lernen, Maschinen trainieren

Drei Typen von Maschinen · Geheimnis Lernen · Tiefes Lernen · Montagsmalen

image

Unboxing Künstliche Intelligenz

Black Boxes überall · Millionengeschäft Justizwesen · Diskriminierung durch Code · Der Ruf nach Regulierung · Überwachen und Strafen 2.0 · Unboxing ist gut, aber nicht gut genug

image

Künstliche Intelligenz für alle

Conversational Interfaces · Der Spion zu Hause? · Lizenz zum Geldverdienen · Alexa – KI durch und durch · Diener ihrer Herren

image

Kulturrevolution 2.0

Netzwerk-China · Das ABT des Digitalen Kapitalismus · Smart Red Cloud · Überwachungskapitalismus made in China

image

Vollbeschäftigung für Roboter

Wir fragen Karl Marx ·

Roboter bei McDonald’s? · Schulter an Schulter mit den Bots · Das Ende der proletarischen Arbeit

image

Bei Rot stehen, bei Grün gehen. Ethik im Zeitalter von Künstlicher Intelligenz

Das automatische Auto · Bentham oder Kant? · Strafzettel für Algorithmen · Die Ethik von öffentlich und privat · Was ist mit den Robotern?

image

Auf dem Weg zum Voraussage-Kapitalismus

General intellect in der Feedback-Schleife · Echtzeit-Ökonomie · Ökonomie der Empfehlung · Das Kapital schaut in die Zukunft

image

Public Service Society: für eine gesellschaftliche Debatte um Ziele und Inhalte von KI-Anwendungen

Der datenindustrielle Komplex · Datenkommunismus · Ein CERN für alles

Anmerkungen

Auswahlbibliografie

Dank

image

Einleitung

Vor Kurzem fragte ich eine künstliche Intelligenz: »Excuse me, are you real?« Die Antwort kam wie aus der Pistole geschossen: »Would you prefer I were not?« Ich war beeindruckt. Was für eine witzige, von Selbstbewusstsein zeugende, geradezu selbstironische, vielleicht einen Hauch blasierte – mit einem Wort: intelligente – Antwort! Stellte ich diese Frage Menschen aus Fleisch und Blut, dürfte ich wohl mit einfältigeren Antworten rechnen. Sind sie also doch schon da, schlaue und sympathische digitale Wesen?

Gestellt habe ich die Frage allerdings nicht einer der aktuell avanciertesten KI-Anwendungen wie Watson von IBM, Siri von Apple, Alexa von Amazon oder gar einem geheimen Prototypen aus einem Militärlabor. Die schlagfertige Antwort erhielt ich von einem ziemlich alten Programm, das der deutsch-amerikanische Informatiker und KI-Pionier Joseph Weizenbaum bereits Mitte der 1960er Jahre geschrieben und nach Eliza Doolittle aus dem Musical My Fair Lady benannt hatte. Das Funktionsprinzip des ersten Chatbots der Geschichte ist eher ernüchternd: Ein Algorithmus analysiert die Fragen nach Schlüsselwörtern und Satzbau und sucht daraufhin aus einer Liste an vorgegebenen Antworten diejenige aus, die passend erscheint.

An diesem Prinzip hat sich bis heute nicht viel geändert, auch 50 Jahre später basieren Chatbots, also textbasierte Dialogsysteme, mit denen schriftliche oder Sprach-Kommunikation möglich ist, auf demselben Prinzip. Der Pool an Antworten wird dabei durch frühere Gespräche erweitert, sie lernen also dazu. Meine Reaktion auf die Antwort des frühen Chatbots zeigt zudem ein verbreitetes Phänomen: Wir neigen dazu, emotional und animistisch zu reagieren, also Gefühle zu entwickeln und unseren unbelebten Gegenübern Leben einzuhauchen, die deren Kaltblütigkeit nicht gerecht werden.

Seit der Antike existiert die Vorstellung, dem Menschen ein künstliches Ebenbild zu schaffen. Heute dominieren Hollywood und die populäre Kultur unsere Vorstellungen von Robotern, Androiden, Cyborgs und künstlichen Intelligenzen. In Metropolis, Terminator oder Ex Machina, um nur drei herausragende Filme zu nennen, kommt es am Ende zum Showdown – Mensch gegen Maschine. In der Anfangszeit der Künstlichen Intelligenz waren die Hoffnungen noch groß: Die vom berühmten Alan Turing 1950 höchstpersönlich gestellte Frage – »Können Maschinen denken?« – schien in wenigen Jahren lösbar. So einfach war es dann aber doch nicht, im sogenannten KI-Winter wurde es lange Zeit sehr ruhig um die Disziplin.

Der Frühling der KI

Gegenüber der in der Popkultur dominierenden futuristischen Variante geht es derzeit vorrangig um die »schwache KI«, also letztlich um den Versuch, Software und Hardware zu entwickeln, die in eng begrenzten Situationen spezifische Aufgaben einigermaßen klug bewältigen kann, für die sie vorher ausgiebig trainiert worden ist. Derzeit sind Technologien der Künstlichen Intelligenz en vogue, die von dem populären Verständnis von KI, also der Erschaffung künstlicher intelligenter Automaten, denkbar weit entfernt sind. Bei KI in ihrer derzeitigen Form haben wir es mit Software zu tun, die mit vielen Daten trainiert wird, um in eng begrenzten Anwendungsbereichen zu reüssieren.

»Starker KI« hingegen liegt die These zu Grunde, menschliche Denkfähigkeiten – Bewusstsein, Empathie, Moral – seien nicht an eine bestimmte biologische Materialität gebunden, sondern könnten auch mit entsprechend leistungsfähigen Computern nachgebaut werden. Insbesondere im Silicon Valley existiert zwar durchaus die Vorstellung, künstliche und natürliche Intelligenzen würden demnächst miteinander verschmelzen – so weit sind wir aber definitiv nicht.

Heute ist Künstliche Intelligenz wieder in aller Munde – ob es um Bilderkennung, die Vorauswahl von Bewerberinnen und Bewerbern, autonom fahrende Autos oder das sogenannte Social Scoring (Bonitätsprüfung mittels Daten aus Sozialen Netzwerken) geht. Alle großen Internetkonzerne arbeiten fieberhaft an Sprachassistenten, die das next big thing des Digitalen Kapitalismus zu werden versprechen. Hier werden jedoch deutlich kleinere Brötchen gebacken: Von denkfähigen Robotern, die mit uns Menschen gleichziehen, ist nicht mehr die Rede. Worauf ist der derzeitige Boom der Disziplin aber gegründet, wenn von einer allgemeinen Künstlichen Intelligenz weit und breit nichts zu sehen ist, ja noch nicht einmal entscheidende Durchbrüche in Unterdisziplinen zu vermelden sind? Relativ alte Techniken rund um maschinelles Lernen, einer Teildisziplin der KI, sind dabei, in Form von Anwendungen (Apps) den Massenmarkt zu erobern.

Wenn heute von Künstlicher Intelligenz die Rede ist, dann in den allermeisten Fällen von einem Teilbereich, der sich mit »maschinelles Lernen« überschreiben lässt – dem Oberbegriff für Verfahren, die es Maschinen ermöglichen, Wissen aus Erfahrung zu generieren, sprich: zu lernen. Im Gegensatz zur klassischen KI, die versucht, denkende Maschinen zu bauen, geht es hier um deutlich profanere Dinge: um Software, die Personen oder Gegenstände auf Bildern erkennen kann, menschliche Sprache analysieren und adäquat darauf reagieren kann und dergleichen.

ImageNet Challenge, ein seit 2010 jährlich stattfindender Wettbewerb, bei dem es um die computergestützte Identifizierung von Objekten in digitalen Bildern geht, kann als Gradmesser für die Fortschritte auf dem Gebiet der Bilderkennung gelten. Hochkarätige Teams wetteifern darum, welche Algorithmen dabei die niedrigste Fehlerquote erzielen. Im Jahr 2012 konnte das Gewinnerteam dank des Einsatzes von maschinellem Lernen die Fehlerquote von bis dato üblichen 30 Prozent auf unter 15 Prozent drücken. Daraufhin übernahmen sämtliche Teams diesen Ansatz; seit 2017 schaffen es die allermeisten, zuverlässig unter fünf Prozent zu bleiben. Eine Fehlerquote im niedrigen einstelligen Prozentbereich kann als Ausnahme oder Ausreißer gewertet werden und ist für Anwendungen durchaus tolerabel. Entscheidend ist jedoch die Tatsache, dass die durchschnittliche Fehlerquote einer menschlichen Vergleichsgruppe ebenfalls bei etwa fünf Prozent liegt. Damit ist die maschinelle Bilderkennung zuverlässig besser als die »manuelle« geworden: Der Anwendung auf dem Massenmarkt steht nichts mehr im Wege.

Digitaler Kapitalismus

Die Renaissance der Künstlichen Intelligenz ist nicht zu trennen von einer Entwicklung, die mit technischen Fortschritten dieser Disziplin zunächst wenig zu tun hat: dem Siegeszug des Digitalen Kapitalismus. Die führenden Digitalkonzerne – Amazon, Alphabet, Apple, Facebook und Microsoft – sind zu den mächtigsten Unternehmen der Welt geworden. Sie haben nicht nur wirtschaftliche, sondern auch beispiellose politische und gesellschaftliche Macht errungen. Ihre Bedeutung für unser Alltagsleben und für die Art und Weise, wie wir kommunizieren, uns informieren und Beziehungen pflegen, kann nicht hoch genug eingeschätzt werden. Sie designen die digitale Welt nach ihrem Gusto und lassen sich dabei von ihren Profitinteressen leiten. Ihre Gesetze, ihre Leitlinien und ihre Ethik sind diejenigen des Kapitals: Was seiner Vermehrung dient, ist legal, korrekt und moralisch, was ihr entgegensteht, wird ignoriert, bekämpft oder schlicht herausgefiltert.

Sie sind allesamt durch und durch digitale Firmen, deren Geschäftsmodelle auf der Extraktion und Verwertung von Daten beruhen. Hauptgeschäft dieser Unternehmen ist die Generierung und Verteilung von Information über digitale Plattformen. Die Plattformen – proprietäre Anwendungen oder Online-Angebote – stellen eine virtuelle Infrastruktur zur Verfügung und vermitteln zwischen Dritten. Sie sind für die Inhalte nicht verantwortlich, beherrschen aber die Form. Ihnen gegenüber stehen die einzelnen Nutzer, die keinerlei Einfluss auf das Gesamtsystem haben. Die Betreiber bestimmen die Regeln.

Fünf Milliarden Menschen benutzen Smartphones und generieren einen nicht enden wollenden Strom an Daten – das Gold des Digitalen Kapitalismus. Auch die Daten, die von Googles Such-Robotern unermüdlich durchforstet werden, haben wir alle selbst erstellt, die Inhalte des World Wide Web sind genauso user generated content wie die Beiträge auf Facebook und Twitter. In den umzäunten Gärten der Plattformen geben wir unser Innerstes preis, verbringen das halbe Leben in virtuellen Shopping-Malls und arbeiten so für deren Profit. Ich nenne dies user generated capitalism.

Durch den Netzwerkeffekt, also den Mechanismus, nach dem ein Netzwerk umso größeren Nutzen abwirft, je mehr sich daran beteiligen, erzielten die großen Plattformen rasch eine Monopolstellung. Ihre Services – von der Websuche über Soziale Medien und die Orientierung auf der Erdoberfläche bis zur Kanalisierung des Online-Warenverkehrs – sind de facto public utilities geworden, also Dienste informationeller Grundversorgung, vergleichbar mit Strom und Wasser, gleichzeitig aber privatwirtschaftlich organisiert und geheimniskrämerisch verwaltet. Die umfassenden Auswirkungen des Digitalen Kapitalismus auf Arbeit, Subjektivität und Gesellschaft lassen erkennen, dass wir es mit einer neuen gesellschaftlichen Betriebsweise zu tun haben.

Mit den Plattformen gelingt es dem Kapital, ein neues Akkumulationsmodell zu etablieren. War der industrielle Kapitalismus gekennzeichnet durch die Extraktion von Rohstoffen und die Ausbeutung lebendiger Arbeit mit dem Ziel, massenhaft Produkte für den Verkauf am Markt herzustellen, verschiebt sich dieser Fokus nunmehr. Die Extraktion von Daten und die Ausbeutung neuer Arbeitsformen, in erster Linie der User der Plattformen selbst, sind ins Zentrum der ökonomischen Aktivität geraten. Die Plattformen machen sich die Schwarmintelligenz des general intellect (Marx) zunutze und akkumulieren Reichtum durch die algorithmische Analyse von Daten und die Verwertung des Wissens der Welt.

Warum gerade jetzt?

Aus zwei Gründen haben wir es derzeit mit einer Renaissance der Disziplin zu tun: Erstens funktioniert die KI, um die es heute geht, dank jahrzehntelanger Vorarbeiten und insbesondere Fortschritten in der Rechenleistung mittlerweile technisch sehr gut. Und zweitens gibt es in vielen Bereichen immense Datenmengen, die als Trainingsdaten verwendet werden können. Wo man hinschaut, ist von Daten die Rede, deren Analyse zum zentralen Geschäft des Digitalen Kapitalismus erklärt wird. Das ist auch kein Zufall, denn bei der heutigen KI, die darauf abzielt, mit vielen Daten Algorithmen zu trainieren, stehen die Menge und Qualität der Trainingsdaten im Vordergrund. Wer also über viele Daten verfügt, erlangt einen strategischen Vorteil.

Technologien maschinellen Lernens sind geradezu ideal geeignet, in Datenozeanen Strukturen zu erkennen, Modelle zu entwickeln und daraus wiederum Vorhersagen zu generieren. Daraus resultieren kapitalistisch verwertbare Anwendungsfelder, mit denen viel Geld verdient werden kann – so jedenfalls die Hoffnung der Großen der Branche. Die Analyse mit Big-Data-Methoden und eine umfassende Überwachung gehen Hand in Hand – und bilden gleichzeitig die Voraussetzung für die nächste Stufe des datenextraktiven Kapitalismus. Die auch als technologische Ökosysteme bezeichneten Produktplattformen zeichnen sich durch Kernkomponenten aus, die vom Betreiber definiert und von Anwendungen Dritter ergänzt werden. Durch die Einspeisung dieser Daten in KI-Ökosysteme werden neue Services möglich, die die ökonomische und soziale Macht der Herren der KI noch verstärken.

Im September 2016 gründeten wichtige digitale Unternehmen eine Allianz, um ihre Forschungsprojekte im Bereich Künstliche Intelligenz zu bündeln. Bei der »Partnership on Artificial Intelligence« sind neben Alphabet (über seine Tochterfirma DeepMind) noch Amazon, Facebook, IBM und Microsoft mit von der Partie. Die Großen der KI sind also dieselben Unternehmen, die auch die digitalkapitalistische Plattformökonomie beherrschen. Neben den genannten sind noch Apple, Tesla oder der Chip-Hersteller Nvidia zu erwähnen – nicht zu vergessen: ihre chinesischen Pendants Alibaba, Tencent und Baidu. Die Großen der Plattformökonomie zu beiden Seiten des Pazifiks arbeiten an Anwendungen für den globalen Markt; neue KI-getriebene Softwareanwendungen sind dabei, die Schwelle zum Massenprodukt zu überschreiten. Hier zeichnet sich eine ähnliche Entwicklung ab wie zu Zeiten der PC-Revolution, als der Computer personal wurde, sprich zum Produkt für jedermann.

Ich widme mich der Geschichte einer kontroversen Disziplin von der Geburtsstunde der Algorithmen bis hin zu aktuellen Entwicklungen. Ich frage, was eigentlich Intelligenz ist, und ob das überhaupt ein adäquater Begriff ist für Software, deren Reaktionen wir für »intelligent« halten. Wenn Algorithmen »dazulernen«, wie machen sie das, wie kommen sie zu ihren Lernfortschritten? Können ihre Schlussfolgerungen überhaupt noch nachvollzogen werden, oder sind diese zu black boxes geworden, die niemand mehr verstehen, geschweige denn kontrollieren kann? Und wer soll überhaupt für eine solche Kontrolle zuständig sein, wem gehören die Algorithmen und Daten, die Produktionsmittel der KI-Ökonomie? Wie hängt der Einsatz von Robotern mit der Mehrwertproduktion zusammen, und was bedeutet das für den Digitalen Kapitalismus? Was ist von Chinas neuentdeckter Liebe zur KI zu halten und vom Versuch der Kommunistischen Partei Chinas, bis 2030 die weltweite Vorherrschaft bei KI-Anwendungen zu übernehmen? Wie sollen die Chinesen in einer Art Kulturrevolution 2.0 mit Hilfe der smart red cloud zu Idealbürgern werden?

Was in diesem Buch versucht wird, ist eine klare Abgrenzung und Definition der Begriffe im Umfeld der »KI«, eine historische Einordnung, sowohl technisch als auch gesellschaftlich – was ohnehin nicht zu trennen ist – und ein politischer Ausblick, außerdem schließlich Empfehlungen für den Umgang mit KI. An der Hand der Digitalkonzerne, aber auch im Zuge von Industrie 4.0 werden KI-Technologien marktfähig und alltagstauglich und werden in vielen Bereichen auf breiter Basis implementiert. KI wird so zur Schlüsseltechnologie des Digitalen Kapitalismus, seiner auf Daten und deren Verwertung zentrierten Geschäftsmodelle. Darum soll es hier vorrangig gehen. Eins steht jedenfalls fest: Künstliche Intelligenz ist dabei, zum Alltagsphänomen zu werden. Es ist abzusehen, dass Wissen und Fähigkeiten rund um KI, Big-Data-Analysen und maschinelles Lernen ebenfalls zum Alltag, zum nächsten kapitalistischen big thing werden – technologisches Heilsversprechen, soziale Verheißung und finanzieller Hoffnungsträger zugleich.

image

Kurze Geschichte einer kontroversen Disziplin

Die Geschichte der Künstlichen Intelligenz beginnt ein ganzes Jahrhundert bevor der Begriff überhaupt erfunden werden wird. Der Industrielle, Nationalökonom und Erfinder Charles Babbage hatte sich im dampfbetriebenen industriekapitalistischen England daran gemacht, eine vollautomatische Rechenmaschine zu bauen, die Analytical Engine. Sie wies bereits alle wesentlichen Elemente moderner Computer auf: Eingabe, Ausgabe, Programmspeicher und -steuerung. Babbages 30 Meter langes mechanisches Monstrum, das der erste Computer der Welt hätte werden können, erblickte jedoch nie das Licht der Welt.

Die Erste, die eine schier unendliche Anwendungsvielfalt analytischer Maschinen erahnte, war Babbages Assistentin Lady Ada Lovelace. Sie sah voraus, dass solche Automaten zu deutlich mehr in der Lage wären, als reine Zahlen zu verarbeiten. Die deterministischen Automaten, über die Ada Lovelace nachdachte – es dauerte schließlich noch fast ein Jahrhundert, bis der erste funktionsfähige Computer von Konrad Zuse im elterlichen Wohnzimmer im Berlin-Kreuzberg des Jahres 1937 in Betrieb genommen wurde – könnten allerdings nicht über das in sie Hineinprogrammierte hinaus selbstständig denken. In ihren Anmerkungen zu Babbages nie fertiggestelltem Rechenautomaten schreibt die junge Engländerin 1843: »Die Maschine ist kein denkendes Wesen, sondern lediglich ein Automat, der nach Gesetzen handelt, die ihm auferlegt wurden.«1 Dieser Satz kann – zumindest aus informatischer Sicht – gut und gerne als erster Kommentar zur KI-Thematik in der gesamten Menschheitsgeschichte gelten.

Können Maschinen denken?

Dieser Frage widmete sich Alan Turing in seinem bahnbrechenden und darüber hinaus höchst amüsant zu lesenden Essay »Rechenmaschinen und Intelligenz« aus dem Jahre 1950. Aber was ist überhaupt Denken, und was ist eine Maschine? Er schreibt: »Man könnte diese Definition so formulieren, dass sie so weit wie möglich den allgemeinen Sprachgebrauch wiedergibt, aber diese Einstellung ist gefährlich.«2 Legten wir bei ihrer Definition die landläufige Verwendung zugrunde, argumentiert er, könnten wir die Antwort auf die Frage ebenso gut einer Meinungsumfrage überlassen. Das hält Turing allerdings für absurd, weil die Begriffe Maschine und Denken an sich schon so dehnbar seien, dass mehr als eine rein akademische Diskussion nicht zu erwarten sei. Stattdessen schlägt er vor, die Frage durch eine andere zu ersetzen. Turing verwirft den Versuch einer Definition und schlägt stattdessen ein Imitationsspiel vor, das ein eindeutiges Ergebnis liefern können soll auf die Frage, ob eine Maschine intelligent sei oder nicht: den berühmten Turing-Test der Künstlichen Intelligenz.

»Die neue Form des Problems lässt sich in Form eines Spiels beschreiben, das wir das ›Imitationsspiel‹3 nennen. Es wird von drei Personen gespielt, einem Mann (A), einer Frau (B) und einem Fragesteller (C), der beiderlei Geschlechts sein kann.«4 Die beiden Versuchspersonen A und B sowie der/die Fragenstellerimagein C sind voneinander isoliert, diese können mit jenem nur indirekt über Tastatur und Displays kommunizieren, sodass C nur auf dem Display dargestellte (Sprach)-Antworten der Testpersonen zu Gesicht bekommt. Das Imitationsspiel besteht nun darin, dass A so tun muss, als sei er eine Frau. In einer Art Travestie muss er C erfolgreich hinters Licht führen, das Verhalten einer Frau perfekt imitieren oder vielmehr der bei C existierenden Erwartung, wie sich eine Frau verhält, bestmöglich entsprechen. B wiederum muss ebenfalls versuchen, C von ihrer weiblichen Identität, also von der Wahrheit zu überzeugen. Das entbehrt nicht einer gewissen Ironie: Der homosexuelle Alan Turing schlägt eine Art queeres Quiz vor. Wer den Test besteht, wer also hinreichend oft bzw. statistisch signifikant das Spiel gewinnt, hat erfolgreich bestanden: Er oder sie ist eine Frau!

image

Das Imitationsspiel nach Turing

Bislang ging es also noch gar nicht um Maschinen, erst in einem zweiten Schritt stellt Turing die Frage: »Was passiert, wenn eine Maschine in diesem Spiel die Rolle von A übernimmt? Wird sich der Fragesteller beim Spielen des Spiels so oft falsch entscheiden, wie wenn das Spiel zwischen einem Mann und einer Frau gespielt wird? Diese Fragen ersetzen unser ursprüngliches ›Können Maschinen denken?‹«5 Die Maschine übernimmt nun die Rolle des Mannes, muss ihrerseits überzeugend ›weiblich‹ (inter)agieren und C von ihrer weiblichen Identität zu überzeugen versuchen.

Es geht Turing hier um zweierlei. Erstens vermeidet er jeglichen Essenzialismus und trennt die Frage nach der Intelligenz vom biologischen Substrat. Zweitens setzt er die Beantwortung der Frage gleich mit dem erfolgreichen »So tun als ob«. Statt der Frage, ob Maschinen denken können, wird also untersucht, ob sie sich so verhalten können wie ein (denkender) Mensch. Es geht ihm nicht um eine wie auch immer geartete »echte« Intelligenz. Die erfolgreiche Imitation derselben ist hinreichend – entscheidend ist, was hinten rauskommt. Mit anderen Worten: Intelligenz wird zur performativen Kategorie.

image

Der Turing-Test der Künstlichen Intelligenz

Erinnert seine Herangehensweise nicht an Judith Butlers Gendertheorie? Diese fragte in ihrem Buch Das Unbehagen der Geschlechter, was Geschlecht eigentlich ist.6 Ist es biologisch determiniert, oder ist, was wir als Frau und Mann bezeichnen, nicht vielmehr bestimmt durch Verhaltensweisen und gesellschaftliche Codes? Judith Butler ist es zu verdanken, die Beantwortung dieser Frage einerseits – in einer Turings Überlegung ähnlichen Entessenzialisierung – vom biologischen Geschlecht (sex) gelöst und andererseits als soziales Konstrukt (gender) definiert zu haben, das sich jeglichen körperlichen Essenzialismen verweigert und es ausschließlich als Emanation einer sozialen Praxis bestimmt. Auch bei Butler geht es darum, sich vom sex, also der körperlich-biologischen Essenz, zu lösen. Gender wird in performativen Akten konstituiert, in denen sich eine Person im Rahmen fester Rollenvorstellungen durch Handlungen, eben performativ, ihres sozialen Geschlechts versichert.

Gender als performative Praxis ist ein Imitationsspiel: Ich imitiere Verhaltensweisen, die als männlich oder weiblich gelten und konstruiere damit in einem unendlichen Prozess mein soziales Geschlecht, bis der Beobachter (C) restlos davon überzeugt ist, ich sei das eine oder das andere, etwa ein Mann, oder eine Frau. Ich wage an dieser Stelle die These, dass Judith Butler Inspiration für ihre Theorie bei Alan Turing erhalten hat.

Ein Marketing-Coup

Der Name für die Disziplin war da noch gar nicht erfunden, das gelang ein paar Jahre später dem Mathematiker John McCarthy. Dieser bereitete als junger Assistenz-Professor am Dartmouth-College ein Sommerlager für Mathematiker vor, das im Jahr 1956 stattfinden sollte. Den Geldgebern wurde vollmundig versprochen, eine Handvoll Mathematiker (ausschließlich Männer) würde das Thema Künstliche Intelligenz im Verlauf des Sommer-Workshops erschöpfend bearbeitet haben. Im Forschungsantrag für das zahlenverliebte Pfadfindertreffen taucht zum ersten Mal der Name für das neue Forschungsfeld auf: artificial intelligence. Auch wenn tatsächlich keinerlei praktische Ergebnisse des Sommercamps bekannt sind, war mit dem griffigen Namen für eine neue Disziplin der Weg geebnet worden: Die Künstliche Intelligenz war geboren. McCarthy bekam sein Geld, und das Dartmouth Summer Research Project on Artificial Intelligence konnte stattfinden.

Das Sommerlager dauerte etwa sechs bis acht Wochen und war »im Wesentlichen eine ausgedehnte Brainstorming-Session«7 – so Jerry Kaplan in seiner gelungenen Einführung in die Thematik. Viele berühmte Namen gaben sich hier ein Stelldichein, die die KI wesentlich prägen sollten. Neben McCarthy selbst nahmen auch der spätere Gründer des MIT-Labors für Künstliche Intelligenz, der Kognitionswissenschaftler Marvin Minsky, und der Begründer der Informationstheorie Claude Shannon als Autoren des Konferenzprogramms an der Gründung der neuen Disziplin teil.

Die Initiatoren gingen von der Annahme aus, dass »jeder Aspekt des Lernens oder jeder anderen Manifestation von Intelligenz letztlich so genau beschrieben werden kann, dass er auf einer Maschine simulierbar ist.«8 Das Programm des Symposiums war sehr ambitioniert: »Es wird versucht herauszufinden, wie man Maschinen dazu bringt, Sprache zu benutzen, Abstraktionen zu bilden, Konzepte zu entwickeln, Probleme zu lösen, die bisher Menschen vorbehalten waren, und wie man sie dazu bringt, darin besser zu werden«, so wird es in der Beschreibung des Forschungsvorhabens formuliert.

Anlässlich dieses historischen Ereignisses lieferte McCarthy auch gleich einen Definitionsversuch für die neue Disziplin KI: »die Herstellung einer Maschine, die sich auf eine Art und Weise verhält, die wir intelligent nennen würden, wenn ein Mensch sich so verhielte«.9