Lenzen, Manuela

Natürliche und künstliche Intelligenz

Einführung in die Kognitionswissenschaft

 

 

 

www.campus.de

Impressum

Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung ist ohne Zustimmung des Verlags unzulässig. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.

Copyright © 2002. Campus Verlag GmbH

E-Book ISBN: 978-3-593-40032-7

|2|Campus Einführungen

Herausgegeben von

Thorsten Bonacker (Marburg)

Hans-Martin Lohmann (Heidelberg)

 

Manuela Lenzen studierte Philosophie in Bochum und Bielefeld. Als freie Wissenschaftsjournalistin schreibt sie unter anderem für die Frankfurter Allgemeine Zeitung und die Süddeutsche Zeitung, für die Frankfurter Rundschau und Die Zeit.

 

 

 

|9|Einleitung

Wie funktioniert das Denken? Wie die Wahrnehmung, die Erinnerung, die Sprache? Was ist Wissen? Diese Fragen faszinierten schon die Philosophen der griechischen Antike. Die Werke, die seither verfasst wurden, um sie zu beantworten, füllen Bibliotheken, doch nach wie vor sind viele Fragen offen. Mitte des 20. Jahrhunderts nun inspirierte der Computer, damals noch Elektronenrechner genannt, einen neuen, ausgesprochen erfolgreichen Ansatz, diese schwer greifbaren Phänomene zu erforschen: Man begann kognitive Prozesse, und zu ihnen gehören auch Denken, Wahrnehmen, Erinnern, Sprechen und Wissen, als Prozesse der Datenverarbeitung zu betrachten. Diese Idee wurde von verschiedenen Disziplinen aufgenommen, zunächst vor allem von der Psychologie, der Informatik, der Linguistik, der Philosophie und der Neurowissenschaft, die als die klassischen Säulen der Kognitionswissenschaft gelten. Aus dem Zusammenschluss der Forscher, die sich auf diesen neuen Ansatz einließen, entstand die Kognitionswissenschaft, erst als interdisziplinäres Forschungsprojekt, inzwischen als neue, aufstrebende akademische Disziplin.

Der Begriff Kognition leitet sich her vom griechischen gignoskein = erkennen, wahrnehmen, wissen. Er wurde zuerst in der Psychologie des 19. Jahrhunderts für elementare Bewusstseinsgegebenheiten verwendet. In der modernen Psychologie |10|und in der Kognitionswissenschaft steht »Kognition« eher intuitiv als klar definiert für diejenigen Vermögen, die es Menschen erlauben, sich intelligent und flexibel zu verhalten. Manche Kognitionswissenschaftler möchten den Begriff für intellektuelle Leistungen im engeren Sinne reserviert sehen, Leistungen, wie sie in klassischen Intelligenztests geprüft werden und die Menschen bewusst ausführen (Searle 1992). Für andere ist auch die Steuerung eines mit vielen Freiheitsgraden ausgestatteten Körperteils, wie etwa eines Arms oder, bei Elefanten, eines Rüssels, eine kognitive Leistung. Diese Fähigkeiten werden bisweilen als Körperintelligenz oder prärationale Intelligenz bezeichnet (Dean/Ritter/Cruse 2000). Am weitesten dehnten die Biologen Humberto Maturana und Francisco Varela den Kognitionsbegriff mit ihrer Devise »Life is Cognition« (1980, S. 13), fanden damit allerdings keine große Zustimmung. Den meisten Kognitionswissenschaftlern geht es nun doch zu weit, Obst und Gemüse, die als pflanzliche Lebewesen demnach in den Einzugsbereich der Kognitionswissenschaft gehören, kognitive Fähigkeiten zuzusprechen. Die meisten Kognitionswissenschaftler sind sich darin einig, dass die Fähigkeit zu lernen eine Minimalbedingung für Kognition ist. Eine Reaktion, die starr an einen Reiz gekoppelt ist, ohne dass der Organismus sie modifizieren könnte, etwa die Schreckreaktion, die Menschen unwillkürlich zeigen, wenn sie plötzlich einen lauten Knall hören, gehört damit nicht zu den kognitiven Fähigkeiten. Kognition ist vielmehr das, was sich zwischen Reiz und Reaktion in einem Organismus abspielt.

Kognitive Phänomene sind unhandliche Forschungsgegenstände. Gedanken, Überzeugungen, Befürchtungen, Pläne und all die anderen Produkte des Geistes finden in den Köpfen der Individuen statt. Meine Gedanken sind nur in meinem Kopf, meine Schmerzen spüre nur ich, und was ich plane, das weiß niemand, solange ich nicht davon erzähle. Die längste Zeit der abendländischen Geistesgeschichte galt mangels Alternative |11|die Introspektion als Königsweg zur Erkenntnis des Geistes, die nach innen gerichtete Aufmerksamkeit, die die Wahrnehmung der eigenen Bewusstseinsinhalte ermöglichen soll. Doch die Introspektion hat, als wissenschaftliche Methode verwendet, diverse Nachteile. Ein Kritikpunkt ist, dass die nach innen gerichtete Aufmerksamkeit immer nur die gerade vergangenen Bewusstseinszustände erhaschen kann. Ein weiterer, dass der Blick nach innen das zu Beobachtende eher stört als neutral protokolliert. Im Zuge der modernen Kognitionsforschung wurde auch deutlich, dass der Introspektion längst nicht alle, ja nicht einmal die meisten kognitiven Vorgänge überhaupt zugänglich sind. Nur der geringste Teil seiner kognitiven Leistungen wird dem Menschen bewusst und von diesen meist auch nur das Ergebnis, nicht der Prozess, in dem es zustande kam. Es hat keinen Sinn, jemanden zu fragen, wie er es fertig gebracht hat, das Gesicht eines Freundes in einer Menschenmenge wiederzuerkennen oder wie ihm plötzlich die vergessen geglaubte Telefonnummer wieder einfiel: Plötzlich war sie eben da. Damals sorgten sich die Psychologen allerdings mehr um die Wissenschaftlichkeit ihrer Forschungen: Die Ergebnisse wissenschaftlicher Forschung müssen nachprüfbar sein, und Berichte über innere Erlebnisse sind es nicht.

Von der Begründung der wissenschaftlichen Psychologie 1879, als Wilhelm Wundt in Leipzig das erste Institut für experimentelle Psychologie einrichtete, bis zum Beginn des Ersten Weltkriegs war die Introspektion die wichtigste Methode der Psychologie. Die Forscher, die sich der Problematik ihres Werkzeugs bewusst waren, schränkten die Verwendung der Introspektion auf ausgesprochen simple Fälle ein: Versuchspersonen sollten etwa angeben, wann sie einen einfachen visuellen Stimulus wahrnahmen. Wenn man solche Experimente auch noch in sehr großer Zahl durchführte und sich auf sehr erfahrene Versuchspersonen beschränkte, konnte das durchschnittliche Ergebnis als recht zuverlässig gelten. Leider lieferten die Ergebnisse |12|solcherart eingeschränkter introspektiver Studien keine besonders interessanten Einblicke in das Funktionieren des Geistes. Diese Methode hätte sich nie in einem Land entwickeln können, dessen Bürger in der Lage wären, sich zu langweilen, wie der amerikanische Philosoph und Psychologe William James giftig bemerkte (James 1950, S. 192f.).

In den 20er Jahren des vergangenen Jahrhunderts kritisierte J. B. Watson die bis dahin vorherrschende Orientierung der Psychologie an den Inhalten des Bewusstseins und der Introspektion als unwissenschaftlich. Für die von ihm begründete behavioristische Schule ist eine Psychologie, die den Titel einer Wissenschaft verdient, nur möglich, wenn sie sich auf die Analyse beobachtbaren Verhaltens beschränkt. Der Behaviorismus erwuchs schnell zur vorherrschenden Richtung in der amerikanischen und nach dem Zweiten Weltkrieg auch in der deutschen Psychologie. Die Behavioristen konzentrierten ihre Forschung auf die Wechselwirkung von eingehenden Reizen und den darauf folgenden Reaktionen der Organismen. Die Organismen selbst betrachteten sie als black boxes, deren interne Vorgänge für die Erklärung ihres Verhaltens nicht von Interesse seien. Die Introspektion wurde aus dem Kanon der legitimen psychologischen Methoden verbannt. Weil die Behavioristen jedoch keinen anderen Zugriff auf kognitive Phänomene anzubieten hatten, verbannten sie diese gleich mit. Doch auch der Behaviorismus lieferte keine zufrieden stellende Erklärung menschlichen Verhaltens, und in den 40er Jahren setzte sich mehr und mehr die Einsicht durch, dass sich komplexes Verhalten in der realen Welt nicht mit dem Schema von Reiz und Reaktion erklären lässt.

In dieser Situation lieferte der Computer, genauer gesagt: die auf den Arbeiten des Elektroingenieurs Claude Shannon aufbauende Informationstheorie einen neuen Ansatz, über die Vorgänge im Kopf zu sprechen, ohne in den Ruch der Unwissenschaftlichkeit zu geraten. Die Informationstheorie befasst |13|sich damit, den Informationsgehalt von Nachrichten quantitativ zu bestimmen, mathematisch zu formulieren und so für einen Computer handhabbar zu machen. Information wird dabei völlig unabhängig von ihrem konkreten Inhalt als Entscheidung zwischen zwei Alternativen betrachtet. Die Einheit der Information ist das allen Computernutzern bekannte bit, die Informationsmenge, die man benötigt, um zwischen zwei gleich wahrscheinlichen Alternativen zu entscheiden. Die Informationstheorie ist die Grundlage der Informatik und der Computertechnologie. Für die Psychologie lieferte sie eine Reihe neuer Begriffe, um über kognitive Prozesse zu sprechen: Information und Informationsverarbeitung, Input, Output und Speicher erfreuten sich wachsender Beliebtheit. Manche Psychologen forderten gar, alle psychologischen Theorien müssten in Form von Computerprogrammen geschrieben sein. Norbert Wiener, der Begründer der Kybernetik, der Wissenschaft der Steuerung, Regelung und Nachrichtenübertragung, schrieb 1943 einer rückgekoppelten Maschine, also einer solchen, deren Ausgangssignal ihr als Input wieder zugeführt wird, zielgerichtetes Verhalten zu. Diese Maschine könne, so Wiener, Informationen sammeln und auswerten, den Zustand, in dem sie sich befindet, mit dem vergleichen, den sie erreichen soll, und den Unterschied zwischen beiden verringern (Rosenblueth, Wiener, Bigelow 1943).

Mit der Übertragung der Terminologie der Informationstheorie auf den menschlichen Geist begann die sogenannte kognitive Wende, ein Umbruch, der sich quer durch die Wissenschaften vom Menschen fortpflanzte, den Behaviorismus entthronte und kognitive Phänomene wieder zu legitimen Gegenständen wissenschaftlicher Forschung erklärte. Programmatisch nannte Wiener sein 1948 erschienenes Buch Kybernetik. Regelung und Nachrichtenübertragung in Lebewesen und Maschine. Was in der Informationstheorie legitime Begriffe waren, das sollte auch für die Psychologie taugen. Was man von einem Computer |14|sagen konnte, das sollte von einem Menschen allemal gelten: »Wenn Entelechie mit Mechanik vereinbar war, konnte sie auch als respektierliches Prinzip in die Psychologie eingehen.« (Miller/Galanter/Pribram 1973, S. 46) Es war der Computer, der Skeptiker überzeugte, »daß in Begriffen wie ›Ziel‹, ›Absicht‹, ›Erwartung‹, ›Entelechie‹ nicht etwas Okkultes eingeschlossen ist« (ebd., S. 49).

Die Aufbruchstimmung, die damals die Psychologie und die aufkommende Informatik erfasste, spricht noch heute deutlich aus den Schriften dieser frühen Kognitionsforscher: »Das Denken war überhaupt nicht greifbar und aussprechbar, bis die moderne formale Logik es als Manipulation formaler Token [Vorkommnisse, M.L.] interpretierte. Und es schien noch immer den platonischen Ideenhimmel zu bewohnen oder ebenso obskure Räume des menschlichen Geistes, bis Computer uns lehrten, wie Symbole durch Maschinen verarbeitet werden konnten.« (Newell/Simon 2000, S. 87)

Aus diesen Überlegungen ging das Computermodell des Geistes hervor: Das Gehirn ist eine Art Computer, der Geist die dazugehörige Software, das Betriebssystem, das Programm. Der Mensch nimmt seine Umwelt und seinen Organismus mittels seiner Sinnesorgane wahr. In seinem Gehirn werden diese Wahrnehmungen in Symbole transformiert, die für Dinge in der Welt stehen. Diese Symbole sind die Daten des Gehirn-Computers. Sie werden nach festgelegten Regeln gespeichert, verglichen, verknüpft, sortiert oder durchsucht, mit anderen Worten, sie werden verarbeitet. Das Ergebnis dieses Prozesses dient der Steuerung des Verhaltens.

Die leidige Introspektion war damit weitgehend vom Tisch, denn die Ebene, auf der kognitive Phänomene nun untersucht werden sollten, ist introspektiv ohnehin kaum zugänglich. Die Grundidee dabei ist, dass man den Menschen als kognitives System ebenso auf mehreren Ebenen betrachten kann wie einen Computer: Die meisten Menschen benutzen ihre Computer, |15|ohne eine genauere Vorstellung davon zu haben, wie sie funktionieren. Sie arbeiten auf der so genannten Benutzerebene, lassen den Computer Steuersätze berechnen, einen Wirbelsturm simulieren oder jagen Piraten über einen virtuellen Ozean. Die Grundlage für diese verschiedenen Anwendungen legen die Konstrukteure auf der Ebene der Hardware. Hier laufen mit naturgesetzlicher Regelmäßigkeit elektrophysikalische Prozesse ab, von denen der Benutzer nicht das Geringste zu wissen braucht. Zwischen dem Benutzer und dem Konstrukteur steht der Programmierer. Er arbeitet auf einer mittleren, der so genannten algorithmischen Ebene. Algorithmen sind Anweisungen, bei der Lösung eines Problems auf eine bestimmte Weise zu verfahren. Ein Kochrezept beispielsweise, das angibt, in welcher Reihenfolge welche Zutaten in den Topf zu geben sind, ist ein Algorithmus. Der Programmierer legt die Algorithmen fest, nach denen die dem Computer zur Verfügung stehenden Daten verarbeitet werden, das heißt, er schreibt das Programm. David Marr, der am MIT über visuelle Wahrnehmung forschte, schlug nun vor, folgende Ebenen zu unterscheiden: Die Ebene der Funktionen, die ein Computer berechnet, die Ebene der Algorithmen, die ihm sagt, wie er dies zu tun hat, und die Ebene der Implementierung, das heißt der Hardware (Marr 1982).

Die Idee, die der Kognitionswissenschaft zugrunde liegt, ist, dass eine solche Unterscheidung dreier Ebenen nicht nur für die Beschreibung von Computern taugt, sondern auch für die Analyse intelligenter Organismen wie des Menschen: Zuunterst liegt die Ebene der, in diesem Fall neuronalen, Implementation, darüber liegt die Ebene der Algorithmen und zuoberst die Ebene der kognitiven Fähigkeiten des Menschen. Die kognitiven Fähigkeiten des Menschen sollen somit erklärt werden, indem man versucht, die Algorithmen zu finden, die ihnen zugrunde liegen. In den Worten des Kognitionspsychologen Ulric Neisser:

 

|16|»Die Aufgabe des Psychologen, der die menschliche Kognition verstehen will, ist analog derjenigen eines Menschen, der entdecken will, wie ein Computer programmiert ist. Besonders wenn das Programm anscheinend Information speichert und wieder verwendet, wird der Mensch wissen wollen, mit welchen ›Schablonen‹ oder ›Verfahren‹ das geschieht. In dieser Absicht wird er sich nicht darum kümmern, ob sein spezieller Computer die Information auf Magnetkernen oder Dünnfilmen speichert; er möchte das Programm verstehen, nicht die hardware. Ebenso würde es dem Psychologen nicht helfen, zu wissen, daß das Gedächtnis von RNS und nicht von einem anderen Element getragen wird. Er möchte seine Nutzbarmachung, nicht seine Verkörperlichung verstehen.« (Neisser 1974, S. 22)

 

Die algorithmische oder computationale Ebene ist das Interessengebiet der Kognitionswissenschaft. Sie sucht nach den Algorithmen des Geistes. Dieser Fokus auf die Struktur statt auf die materielle Realisierung kognitiver Prozesse ermöglicht das für die Kognitionswissenschaft charakteristische Wechselspiel zwischen natürlicher und künstlicher Intelligenz. Denn wenn es nur auf die Struktur ankommt, spricht im Prinzip nichts dagegen, dass kognitive Prozesse auch in künstlichen Systemen realisiert werden können. Wenn es nur auf die Struktur ankommt, sollte es gleichgültig sein, ob man es mit Neuronen oder mit Siliziumchips zu tun hat. Tatsächlich vertreten manche Kognitionswissenschaftler die These, dass es intelligente Maschinen geben kann, Maschinen also, die zum Beispiel Sprache verstehen oder ähnliche kognitive Leistungen erbringen können, deren Fähigkeiten darauf beruhen, dass sie Computerprogramme durchlaufen. Man nennt dies die starke KI(Künstliche Intelligenz)-These. Andere sind der Ansicht, dass künstliche Prozesse der Datenverarbeitung lediglich geeignet sind, kognitive Prozesse zu simulieren – dies ist die schwache KI-These. Starke wie schwache KI-These geben die Basis ab für eine der wichtigsten Methoden der Kognitionswissenschaft: die Computersimulation. Viele Wissenschaften nutzen Computermodelle, um die unterschiedlichsten Prozesse zu simulieren, vom Vulkanausbruch |17|über das Verhalten einer Hängebrücke bei Sturm bis hin zu Umlaufbahnen von Planeten. Doch während etwa ein Meteorologe nicht auf die Idee käme, dass sich die von ihm simulierte Kaltfront bei ihrem Weg von den Azoren tatsächlich der von seinem Computerprogramm verwendeten Algorithmen bedient, ist genau dies in der Kognitionswissenschaft der Fall: Ein Phänomen als kognitiv zu betrachten, bedeutet gerade anzunehmen, dass es auf Prozessen mentaler Datenverarbeitung beruht (Pylyshyn 1980, S. 120). Wenn dem so ist, sollte es auch möglich sein, von den Algorithmen der künstlichen Systeme, die man kennt, schließlich hat man sie einprogrammiert, auf diejenigen der natürlichen Systeme zu schließen, die man gerne kennen würde. Das Geschäft der Kognitionswissenschaftler besteht zu großen Teilen darin, zu prüfen, was an dieser Annahme dran ist.

Als eine Art lukratives Nebenprodukt sorgt das für die Kognitionswissenschaft typische Wechselspiel von natürlicher und künstlicher Intelligenz für das große Anwendungspotenzial kognitionswissenschaftlicher Forschung. Die Arbeiten zu Expertensystemen, zur Mensch-Maschine-Interaktion, zu lernfähigen Systemen und zum Bau autonomer Roboter sind von erheblichem wirtschaftlichem und auch militärischem Interesse: Vom Kinderspielzeug über Serviceroboter bis hin zu Minensuchgeräten bringt die Kognitionswissenschaft eine breite Palette marktfähiger Produkte hervor.

Damit war ein riesiges Forschungsgebiet neu eröffnet. Und die Computertechnik schritt unaufhaltsam aus der Science Fiction-Welt in die Realität: 1941 hatte Konrad Zuse seine berühmte Z3, den ersten programmierbaren Computer, fertiggestellt, die Ingenieure Eckert und Mauchly bauten Mitte der 40er Jahre ENIAC, den ersten Rechner mit Röhrentechnik. Schon auf dem berühmten Hixon-Symposium, das 1948 am California Institute of Technology stattfand und von »zerebralen Verhaltensmechanismen« handeln sollte, wurden vor allem |18|Parallelen zwischen dem eben erst erfundenen »Elektronenrechner« und dem Gehirn diskutiert. Im Rückblick waren sich zahlreiche Teilnehmer einig, dass damals die kognitive Wende begonnen hatte (Gardner 1989, S. 26).

In der Psychologie entstand im Zuge dieser Wende das neue Teilgebiet Kognitionspsychologie. Das 1956 am Massachusetts Institute of Technology (MIT) stattfindende Symposium on Information Theory gilt als Geburtsstunde der Künstliche-Intelligenz-Forschung, eines Teilgebiets der Informatik. Maßgeblich an dieser Tagung beteiligt waren Computerpioniere wie John McCarthy, Marvin Minsky, Allen Newell und Herbert Simon. Im Förderungsantrag zu dieser Konferenz hieß es: »Die Untersuchung [der künstlichen Intelligenz, ML] soll aufgrund der Annahme vorgehen, dass jeder Aspekt des Lernens oder jeder anderen Eigenschaft der Intelligenz im Prinzip so genau beschrieben werden kann, dass er mit einer Maschine simuliert werden kann.« (McCorduck 1979, S. 93) Newell und Simon berichteten auf dieser Konferenz von ihrem Programm Logical Theorist, das als erstes Computerprogramm einen lückenlosen Beweis für ein mathematisches Theorem geliefert hatte. Der Linguist Noam Chomsky trug seine Kritik an der behavioristischen Sprachtheorie vor und präsentierte seine Theorie der Transformationsgrammatik, derzufolge ein dem Sprecher unbewusst bleibendes Regelsystem ihm ermöglicht, Sätze zu konstruieren und sinnvolle von sinnlosen Sätzen zu unterscheiden (Chomsky 1968). Auch in der Neurowissenschaft traf die Sprache der Informationsverarbeitung auf offene Ohren. Warren McCulloch und Walter Pitts entwickelten 1943 die Idee, dass sich Nervenzellen – stark vereinfacht – als kleine Ein- und Ausschalter betrachten lassen und damit als binäre Elemente im digitalen Code des Gehirns (McCulloch/Pitts 1943). Alle diese Forscher gelten als die Urväter der Kognitionswissenschaft.

Natürlich entging es den Wissenschaftlern aus diesen verschiedenen Disziplinen nicht, dass sie aus unterschiedlichen |19|Perspektiven an ganz ähnlichen Projekten arbeiteten. Ihr Zusammenschluss zu einem eigenen Fach mit dem Namen Kognitionswissenschaft geht maßgeblich auf die Initiative der amerikanischen Alfred P. Sloan Foundation zurück, die 1975 ein Sonderprogramm mit dem Namen Cognitive Science zu fördern begann. Heute erfüllt die Kognitionswissenschaft in der Tat die für eine eigenständige Disziplin erforderlichen institutionellen Kriterien: 1977 erschien der erste Band des Fachblattes Cognitive Science, 1979 wurde als erste und bis heute größte Kognitionswissenschaftlervereinigung die Cognitive Science Society gegründet. Seither wuchs und wächst die Gemeinde der Kognitionswissenschaftler rasant, vor allem in den USA. In Deutschland wurde 1994 die Deutsche Gesellschaft für Kognitionswissenschaft gegründet, im selben Jahr fand die erste Fachtagung der Gesellschaft statt. Die vierteljährlich erscheinende Zeitschrift Kognitionswissenschaft war bislang das Organ dieser Gesellschaft, das nun eingestellt und durch die europäische Zeitschrift Cognitive Science Quarterly ersetzt wird. Seit 1993 fördert die Deutsche Forschungsgemeinschaft (DFG) die ersten mit der Kognitionsforschung befassten Graduiertenkollegs. Seit 1998 gibt es an der Universität Osnabrück mit dem International Cognitive Science Program die erste Möglichkeit, in Deutschland Kognitionswissenschaft im Hauptfach zu studieren (siehe Internetadressen).

Es gibt also Institute und Lehrstühle, Zeitschriften und Kongresse für Kognitionswissenschaft. Wirft man allerdings einen Blick in die Beiträge kognitionswissenschaftlicher Zeitschriften, fällt auf, dass nur etwa 20 Prozent der Autoren sich selbst als Kognitionswissenschaftler bezeichnen, alle anderen nennen eine andere Disziplin als ihre intellektuelle Heimat, zumeist die Psychologie oder die Informatik (Schunn u.a. 1998). Tatsächlich ist die Kognitionswissenschaft bis heute weniger eine einheitliche Disziplin als ein interdisziplinäres Forschungsprojekt mit einem rasant wachsenden Spektrum an Forschungsgegenständen |20|und Methoden, ein Zustand für den W. Tack den weithin akzeptierten Begriff Interdisziplin geprägt hat (Tack 1997).

Die Entwicklung der ersten programmierbaren Rechner rief bei den Beteiligten euphorische Reaktionen hervor. Das Computermodell des Geistes, wie es im ersten Kapitel beschrieben wird, erwies sich als ausgesprochen fruchtbar. Beispiele für die Projekte der frühen Kognitionsforscher werden im zweiten Kapitel vorgestellt. Heute jedoch weckt das Computermodell eher Befremden. Eine solche gefühl- und seelenlose Maschine mit ihren statischen Programmen soll ein gutes Modell für Geist und Gehirn abgeben? Wie im dritten Kapitel ausgeführt, gibt es nicht nur emotionale sondern auch handfeste fachliche Gründe, dem klassischen Computermodell skeptisch gegenüberzustehen. Doch Computer ist nicht gleich Computer, und die Kognitionswissenschaft hat das klassische Computermodell längst hinter sich gelassen. Heute ist vielmehr vom Paradox des Computermodells die Rede: Es hat vor allem gezeigt, wie das Gehirn nicht arbeitet. Doch diese Kritik hat nicht etwa dazu geführt, die eben erst entstehende Disziplin Kognitionswissenschaft gleich wieder an den Nagel zu hängen. Im Gegenteil, die Kritik am klassischen Computermodell eröffnete die fruchtbare Diskussion um mögliche Alternativen, der der Rest des Buches gewidmet ist. Wenn das Gehirn nicht arbeitet wie ein handelsüblicher PC, dann vielleicht wie ein erst noch zu entwickelnder massiv parallel arbeitender, multitaskingfähiger Computer mit zahlreichen vernetzten Recheneinheiten – ein Computer, dessen Architektur sich an dem orientiert, was über die Arbeitsweise des Gehirns bekannt ist. Aus solchen Überlegungen entstanden die Idee, ein Netz aus einfachsten Recheneinheiten an die Stelle des Zentralprozessors gewöhnlicher Rechner zu setzen, und Versuche, die mathematische Theorie der dynamischen Systeme auf die Beschreibung kognitiver Phänomene anzuwenden, was in Kapitel 4 dargestellt wird.

Bei solchen Überlegungen über die Architektur des Computers |21|im Kopf blieb es nicht. Der britische Mathematiker Alan Turing, der Erfinder der berühmten Turingmaschine, hatte schon 1950 zwei Wege ausgemacht, auf denen die Kognitionsforschung fortschreiten könnte:

 

»Wir dürfen hoffen, daß Maschinen vielleicht einmal auf allen rein intellektuellen Gebieten mit dem Menschen konkurrieren. Aber mit welchen sollte man am besten beginnen? Auch dies ist eine schwierige Entscheidung. Viele glauben, daß eine sehr abstrakte Tätigkeit, beispielsweise das Schachspielen, am geeignetsten wäre. Ebenso kann man behaupten, daß es das beste wäre, die Maschine mit den besten Sinnesorganen auszustatten, die überhaupt für Geld zu haben sind, und sie dann zu lehren, Englisch zu verstehen und zu sprechen. Dieser Prozeß könnte sich wie das normale Unterrichten eines Kindes vollziehen. Dinge würden erklärt und benannt werden, usw. Wiederum weiß ich nicht, welches die richtige Antwort ist, aber ich meine, daß man beide Ansätze erproben sollte.« (Turing 1967, S. 137)

 

Die Kognitionswissenschaft ist zunächst dem ersten Pfad gefolgt, in den 80er Jahren begann sie auch den zweiten zu betreten, wovon das fünfte Kapitel berichtet. Statt bei den abstraktesten Leistungen der menschlichen Intelligenz wie dem Schach spielen oder dem Beweisen mathematischer Theoreme, für das sich die Kognitionsforscher der ersten Stunde interessiert hatten, setzen die Vertreter des neuen Ansatzes bei scheinbar einfacheren Dingen an, wie etwa der Steuerung der Gliedmaßen, der Orientierung im Raum oder der Organisation der eigenen Energieversorgung.

Mit dieser Erweiterung des Forschungsfeldes trat in der »neuen KI« der Roboterbau neben die Computersimulation: Der Treppen steigende, Fußball spielende, verständnisvoll lächelnde Roboter ist unbestreitbar die eindrucksvollste Demonstration kognitionswissenschaftlicher Forschung. Und er demonstriert ebenso eindrucksvoll, dass all diejenigen Fähigkeiten, an die Menschen für gewöhnlich keinen Gedanken verschwenden, wie etwa das Wahrnehmen des Fußballs auf dem Spielfeld, alles andere als triviale Leistungen sind.

|22|Doch wer intelligent sein will, braucht nicht nur einen Körper, der ihn in konkreten Situationen handeln lässt, er braucht auch die Gesellschaft seinesgleichen, braucht Emotionen, Kreativität, Motivation, Bewusstsein und Selbstbewusstsein und wahrscheinlich noch vieles andere. Das sechste Kapitel handelt von den ersten tastenden Versuchen, diese Phänomene im Rahmen der Kognitionswissenschaft, und das heißt als Prozesse der Informationsverarbeitung, zu erklären.

Neben die klassischen Säulen der Kognitionswissenschaft sind inzwischen neue Disziplinen getreten. Seit sich die Forschung auf den Bau von Robotern eingelassen hat, ist die Biologie ein wichtiger Ideenlieferant. Die Orientierungssysteme von Robotern etwa sind meist Insektennavigationssystemen nachgebaut. Zudem bringt die Biologie die evolutionäre Perspektive mit in die Kognitionsforschung. Erst wenn man betrachtet, wie sich intelligentes Verhaltens entwickelt hat, erhält man eine Vorstellung davon, welche Elemente zusammenkommen müssen, damit Kognition entstehen kann, und welche Faktoren die Intelligenzleistungen bestimmen, unter Umständen auch einschränken. Seit einige Robotiker mit der These arbeiten, Roboter müssten nicht nur programmiert, sondern wie Kleinkinder belehrt und erzogen werden, finden sich auch Entwicklungspsychologen unter den Kognitionsforschern. Pädagogen waren bei der Entwicklung von Lernsystemen ohnehin schon mit dabei. Zudem entstehen ständig neue Zwischendisziplinen, wie die zwischen KI und Biologie angesiedelte Künstliche Verhaltensforschung (artificial ethology) und die zwischen Informatik und Sozialwissenschaften beheimatete Sozionik. Alle diese Disziplinen tragen zur Kognitionswissenschaft bei, ohne jedoch in ihr aufzugehen. Dass es der Kognitionswissenschaft gelingt, Forscher aus immer wieder anderen Disziplinen zur Mitarbeit an ihrem Projekt zu gewinnen, spricht für den Reiz und die Offenheit des jungen Unternehmens.

|23|Das Gehirn ist ein Computer,  der Geist sein Programm:  Die Anfänge der Kognitionswissenschaft