John Brockman
Welche wissenschaftliche Idee
ist reif für den Ruhestand?
Die führenden Köpfe unserer Zeit
über die Ideen, die uns am Fortschritt hindern
Aus dem Englischen
von Jürgen Schröder
FISCHER E-Books
Der bekannte Visionär John Brockman, ehemaliger Aktionskünstler, Herausgeber der Internetzeitschrift »Edge« und Begründer der »Dritten Kultur« (»Third Culture«), leitet eine Literaturagentur in New York und hat bereits zahlreiche Bücher veröffentlicht, u.a. ›Das Wissen von morgen. Was wir für wahr halten, aber nicht beweisen können: Die führenden Wissenschaftler unserer Zeit beschreiben ihre großen Ideen‹, ›Leben, was ist das? Ursprünge, Phänomene und die Zukunft unserer Wirklichkeit‹, ›Welche Idee wird alles verändern? Die führenden Wissenschaftler unserer Zeit über Entdeckungen, die unsere Zukunft bestimmen werden‹ und ›Wie funktioniert die Welt? Die führenden Wissenschaftler unserer Zeit stellen die brillantesten Theorien vor‹.
Weitere Informationen, auch zu E-Book-Ausgaben, finden Sie bei www.fischerverlage.de
In der Welt der Wissenschaft werden Ideen und Theorien laufend überprüft, verfeinert und angepasst. Und doch gibt es eine Reihe von Vorstellungen, die heute nicht mehr aktuell oder schlicht falsch sind – und sich hartnäckig in den Köpfen der Menschen halten.
John Brockman hat daher die führenden Wissenschaftler unserer Zeit gefragt, welche Ideen sie am liebsten aufs Altenteil schicken würden; mit Beiträgen u.a. von Jared Diamond, Richard Dawkins, Alison Gopnik, Hans Ulrich Obrist, Helen Fisher, Stephen Pinker, Sherry Turkle, Andrian Kreye, Laura Betzig, Nicholas A. Christakis, Stewart Brand, Anton Zeilinger und Ian McEwan.
Erschienen bei FISCHER E-Books
Die amerikanische Originalausgabe erschien 2015 unter dem Titel
»This Idea Must Die. Scientific Theories That Are Blocking Progress«
im Verlag HarperCollins Publishers, New York
© 2015 by Edge Foundation, Inc.
Für die deutsche Ausgabe:
© 2016 S. Fischer Verlag GmbH, Hedderichstr. 114, D-60596 Frankfurt am Main
Covergestaltung: Hauptmann & Kompanie Werbeagentur, Zürich
Coverabbildung: Shutterstock
Abhängig vom eingesetzten Lesegerät kann es zu unterschiedlichen Darstellungen des vom Verlag freigegebenen Textes kommen.
Dieses E-Book ist urheberrechtlich geschützt.
ISBN 978-3-10-403684-7
Alan H. Guth, »Eternal Inflation and its implications«, arXiv:hep-th/0702178v1, 22. Feb. 2007.
Max Planck, Wissenschaftliche Selbstbiographie, Acta Historica Leopoldina, Nr. 19, 1990, S. 14.
Brief an Richard Bentley, 25. Februar 1693, zitiert in Richard S. Westfall, Never at rest: A Biography of Isaac Newton (Cambridge University Press, 1983), S. 505.
Ein Hail-Mary-Pass ist ein sehr langer Vorwärtspass im American Football, der aus Verzweiflung gemacht wird und nur eine geringe Erfolgswahrscheinlichkeit besitzt (Anm. d. Übers.).
Community Planning Study: Snowmass 2013; »Energy Frontier Lepton and Photon Colliders«.
Engineering & Science, Winter 1995.
Anthony R. Cashmore, »The Lucretian Swerve«, Proc. Nat. Acad. Sci. 107:10, S. 4499–504; DOI10.1073/pnas.0915161107 (2010).
William F.N. Chan et al., »Male Microchimerism in the Human Female Brain«, PLOS ONE, 26. Sept. 2012. DOI: 10.1371/journal.pone.0045592.
Samir Zaidi et al., »De novo mutations in histone-modifying genes in congenital heart disease«, Nature 498:7453 (2013).
James R. Lupski, »Genome Mosaicism – One Human, Multiple Genomes«, Science 341, 358 (2013) DOI: 10.1126/science.1239503.
Maeve O’Huallachain et al., »Extensive genetic variation in somatic human tissues«, Proc. Nat. Acad. Sci., 109:44,18018–23 (2012).
Sexuell provokativer Tanzstil mit kreisenden, ruckartigen Hüftbewegungen (Anm. d. Übers.).
Ian C.G. Weaver et al., »Epigenetic programming by maternal behavior«, Nat. Neurosci. 7:8, S. 847–54 (2004). DOI: 10.1038/nn1276.
S.H. Rhee et al., »Early concern and disregard for others as predictors of antisocial behavior«, Jour. Child Psychol. & Psychiatry 54, S. 157–66 (2013).
Ben & Jerry’s ist ein US-amerikanischer Hersteller von Speiseeis (Anm. d. Übers.).
George E. Newman & Daylian M. Cain, »Tainted Altruism: When Doing Something Good Is Evaluated as Worse Than Doing No Good at All«, Psychol. Sci., 8. Januar 2014, DOI: 10.1177/0956797613504785.
Fritz Heider & Marianne Simmel, »An Experimental Study of Apparent Behavior«, http://www.all-about-psychology.com/fritz-heider.html.
»Sleep and Obesity«, Curr. Opin. Nutr. Metab. Care 14(4):402–12 (2011). DOI: 10.1097/MCO.0b013e3283479109.
»Mice Fall Short as Test Subjects for Some of Humans’ Deadly Ills«, New York Times, 11. Februar 2013.
The Desminopathy Reporter, http://www.desminopathy.info/weblog/are-mice-useless-models-for.html.
Clinton Leaf, »Why we’re losing the war on cancer«, CNN.com, 12. Januar 2007.
David Deutsch, »Philosophy will be the key that unlocks artificial intelligence«, theguardian.com, 3. Oktober 2012.
http://www.cjr.org/overload/interview_with_clay_shirky_par.php?page=all.
Die Bezeichnung »401(k)« bezieht sich auf den Abschnitt 401(k) der Abgabenverordnung der USA (Anm. d. Übers.).
An Essay on the Principle of Population, Buch IV, Kapitel V (dt.: Versuch über das Bevölkerungsgesetz, übers. v. F. Stöpel, Berlin: Prager, 1900).
Ein Antibiotikum (Anm. d. Übers.).
FDA, amerikanische Lebensmittelüberwachungs- und Arzneimittelzulassungsbehörde (Anm. d. Übers.).
National Institutes of Health, amerikanische Behörde des Ministeriums für Gesundheitspflege und soziale Dienste (Anm. d. Übers.).
»Weird« bedeutet außerdem sonderbar, ausgefallen, verschroben (Anm. d. Übers.).
»›From Jerusalem to Jericho‹: A Study of Situational and Dispositional Variables in Helping Behavior«, Jour. Pers. & Soc. Psych. 27:1, S. 100–108 (1973).
Solomon E. Asch, »Opinions and Social Pressure«, Sci. Amer., 193:5, S. 34 (1955).
Bert H. Hodges & Anne L. Geyer, »A Nonconformist Account of the Asch Experiments: Values, Pragmatics, and Moral Dilemmas«, Pers. & Soc. Psych. Rev. 10:1, 4 (2006).
J.C. Bohorquez et al., »Common Ecology Quantifies Human Insurgency«, Nature 462:7275, S. 911–14 (2009). DOI: 10.1038/nature08631.
Eric Kandel, »The New Science of Mind«, New York Times, 6. Sept. 2013.
»The Weirdest People in the World?«, Behav. & Brain Sci. (2010). DOI: 10.1017/S0140525X0999152X.
W.D. Hamilton, »The genetical evolution of social behaviour«, I, Jour. Theor. Biol. 7(1):1–16 (1964).
John Maynard Smith & Eörs Szathmáry, The Major Transitions in Evolution, New York: Oxford University Press (2010); (dt.: Evolution. Prozesse, Mechanismen, Modelle, übers v. I. Raschke, Heidelberg u.a.: Spektrum Akad. Verlag, 1996).
http://www.theatlantic.com/magazine/archive/2010/01/the-catastrophist/307820.
STEM ist ein Akronym für Science, Technology, Engineering, Mathematics (Anm. d. Übers.).
Mathew W. Ohland et al., »Identifying and Removing a Calculus Prerequisite as a Bottleneck in Clemson’s General Engineering Curriculum«, Jour. Engineering Educ., S. 253–7, Juli 2004.
SISD (Single Instruction, Single Data), einzelne Instruktionen werden nacheinander mit jeweils einer Datenmenge abgearbeitet; SIMD (Single Instruction, Multiple Data), einzelne Instruktionen werden mit mehreren Datenmengen parallel abgearbeitet; MIMD (Multiple Instruction, Multiple Data), mehrere Instruktionen werden von mehreren Prozessoren mit mehreren Datenmengen verarbeitet (Anm. d. Übers.).
RISC (Reduced Instruction Set Computer), Rechner mit reduziertem Befehlssatz, die Befehle sind einfach zu dekodieren und extrem schnell auszuführen; CISC (Complex Instruction Set Computer), Rechner mit komplexem Befehlssatz; VLIW (Very Long Instruction Word), ein VLIW-Prozessor ermöglicht die parallele Verarbeitung von Informationen (Anm. d. Übers.).
Die Pathologie und Therapie der psychischen Krankheiten, Stuttgart: Krabbe, 1845.
M. Joukamaa, »Psychological factors in low back pain«, Ann. Clin. Res., 19(2): S. 129–34 (1987).
Für Richard Dawkins, Daniel C. Dennett, Jared Diamond und Steven Pinker
Pioniere der Dritten Kultur
Mein Dank geht an Laurie Santos für den Vorschlag der diesjährigen Edge-Frage und an Paul Bloom und Jonathan Haidt für ihre Verfeinerungen. Wie immer danke ich Stewart Brand, Kevin Kelly, George Dyson und Steven Pinker für ihre ständige Unterstützung. Ich möchte auch Peter Hubbard von HarperCollins für seine Ermutigung danken. Außerdem stehe ich in der Schuld meines Agenten, Max Brockman, der das Potential für dieses Buch erkannte, und wie immer von Sara Lippincott für ihre umsichtige und sorgfältige Redaktionsarbeit.
John Brockman
Verleger & Herausgeber, Edge
Die Wissenschaft schreitet durch die Entdeckung neuer Dinge und die Entwicklung neuer Ideen voran. Nur wenige wirklich neue Ideen werden jedoch entwickelt, ohne dass man zuerst ältere aufgibt. Wie der theoretische Physiker Max Planck (1858–1947) bemerkte: »Eine neue wissenschaftliche Wahrheit pflegt sich nicht in der Weise durchzusetzen, dass ihre Gegner überzeugt werden und sich als belehrt erklären, sondern vielmehr dadurch, dass ihre Gegner allmählich aussterben und dass die heranwachsende Generation von vornherein mit der Wahrheit vertraut gemacht ist.« Mit anderen Worten, die Wissenschaft schreitet durch eine Reihe von Begräbnissen voran. Warum so lange warten?
WELCHE WISSENSCHAFTLICHE IDEE IST REIF FÜR DEN RUHESTAND?
Ideen ändern sich, und die Zeiten, in denen wir leben, ändern sich. Die vielleicht größte Änderung heutzutage ist die Veränderungsrate. Welche etablierte wissenschaftliche Idee ist reif dafür, beiseitegeschoben zu werden, damit die Wissenschaft voranschreiten kann?
Geoffrey West
Theoretischer Physiker; Distinguished Professor und ehemaliger Präsident, Santa Fe Institute
Von Allem? Nun, Moment mal. Eine Theorie von Allem in Frage zu stellen könnte als etwas Überflüssiges erscheinen, da ich gewiss nicht der erste bin, der an der impliziten Übertreibung dieses Begriffs Anstoß nimmt. Aber wenn wir ehrlich sind, dann hat die Bezeichnung des eigenen Forschungsgebiets als »Theorie von Allem« einen Beigeschmack von Arroganz und Naivität. Obwohl dieser Ausdruck (wenn auch sicherlich nicht das Bestreben) erst seit verhältnismäßig kurzer Zeit in Umlauf ist und vielleicht schon bald eines natürlichen Todes stirbt, sollte er aus der ernsthaften Wissenschaftsliteratur in den Ruhestand versetzt werden.
Lassen Sie mich das näher erläutern. Die Suche nach großen Synthesen, nach Gemeinsamkeiten, Regelmäßigkeiten, Ideen und Begriffen, die über die engen Grenzen spezifischer Probleme oder Disziplinen hinausgehen, ist eine der großen inspirierenden Triebfedern der Wissenschaft und der Wissenschaftler. Sie ist wohl auch ein bestimmendes Merkmal von Homo sapiens sapiens. Vielleicht ist die binomische Form von sapiens eine verzerrte poetische Anerkennung dieser Tatsache. Ebenso wie die Erfindung von Göttern und Gott bezeichnet der Begriff einer Theorie von Allem die großartigste Vision überhaupt, die Inspiration aller Inspirationen, nämlich dass wir die Gesamtheit des Universums in einer kleinen Menge von Regeln einfangen und verstehen können – in diesem Fall einer bündigen Menge mathematischer Gleichungen. Wie der Begriff Gottes ist das jedoch möglicherweise irreführend und in intellektueller Hinsicht gefährlich.
Zu den klassischen großen Synthesen der Naturwissenschaft gehören Newtons Gesetze, die uns lehrten, dass die Gesetze des Himmels sich von denen der Erde nicht unterscheiden; Maxwells Vereinheitlichung der Elektrizität und des Magnetismus, die den flüchtigen Äther in unser Leben einführte; Darwins Theorie der natürlichen Selektion, die uns daran erinnerte, dass wir letztendlich nur Tiere und Pflanzen sind; und die Gesetze der Thermodynamik, die nahelegen, dass wir nicht ewig existieren werden. Jede dieser Synthesen hatte tiefgreifende Folgen – nicht nur durch die Veränderung unserer Vorstellung der Welt, sondern auch durch die Bereitstellung der Grundlagen für technische Fortschritte, die zu dem Lebensstandard geführt haben, den viele von uns privilegierterweise genießen. Dennoch sind sie alle in unterschiedlichem Maße unvollständig. Tatsächlich haben das Verständnis der Grenzen ihrer Anwendbarkeit und der Grenzen ihrer Vorhersagekraft sowie die laufende Suche nach Ausnahmen, Verletzungen und Fehlschlägen noch tiefere Fragen und Herausforderungen aufgeworfen, wodurch der kontinuierliche Fortschritt der Wissenschaft und die Entwicklung neuer Ideen, Techniken und Begriffe angeregt wurden.
Eine der großen wissenschaftlichen Herausforderungen ist die Suche nach einer großen vereinheitlichten Theorie der Elementarteilchen und ihrer Wechselwirkungen, einschließlich der Erweiterung dieser Theorie auf das Verständnis des Kosmos und sogar auf den Ursprung der Raumzeit selbst. Eine solche Theorie würde auf einer sparsamen Menge zugrundeliegender mathematisierbarer universeller Prinzipien beruhen, die alle grundlegenden Kräfte der Natur zusammenschließen und erklären, von der Gravitation und dem Elektromagnetismus bis zur schwachen und starken Kernkraft, wobei Newtons Gesetze, die Quantenmechanik und die allgemeine Relativitätstheorie darin enthalten wären. Grundlegende Größen wie die Lichtgeschwindigkeit, die Dimensionalität der Raumzeit und die Massen der Elementarteilchen würden alle vorhergesagt werden, und die Gleichungen, die den Ursprung und die Evolution des Universums bis zur Bildung von Galaxien und darüber hinaus regieren, würden abgeleitet werden – und so weiter. Darin besteht die Theorie von Allem. Es handelt sich um eine bemerkenswerte und äußerst ehrgeizige Bestrebung, die Tausende von Forschern über fünfzig Jahre lang mit einem Aufwand von Milliarden Dollar beschäftigt hat. Wenn man an diese Bestrebung, die immer noch weit von ihrem Endziel entfernt ist, nahezu jeden beliebigen Maßstab anlegt, ist sie äußerst erfolgreich gewesen und hat beispielsweise zur Entdeckung der Quarks und des Higgs-Bosons geführt, zu schwarzen Löchern und zum Urknall, zur Quantenchromodynamik und Stringtheorie … und zu vielen Nobelpreisen.
Aber »von Allem«? Nun, wohl kaum. Wo ist das Leben, wo sind Tiere und Zellen, Gehirne und Bewusstsein, Städte und Firmen, Liebe und Hass, usw., usw.? Wie entsteht die außergewöhnliche Mannigfaltigkeit und Komplexität, die wir hier auf der Erde sehen? Die grob vereinfachende Antwort darauf ist, dass diese Phänomene unvermeidliche Ergebnisse der Wechselwirkungen und der Dynamik sind, die die Theorie beinhaltet. Die Zeit entwickelt sich aus der Geometrie und Dynamik von Strings, das Universum expandiert und kühlt sich ab, und die Hierarchie – von Quarks zu Nukleonen, zu Atomen und Molekülen, zu Zellen, Gehirnen und Gefühlen und allem Übrigen – bricht daraus hervor, eine Art von Deus ex machina, ein Ergebnis davon, dass »einfach nur« an der Kurbel zunehmend komplizierter Gleichungen und Berechnungen gedreht wurde, von denen man annimmt, dass sie im Prinzip zu jedem beliebigen hinreichenden Genauigkeitsgrad gelöst werden können. In qualitativer Hinsicht mag diese extreme Version des Reduktionismus eine gewisse Gültigkeit haben, aber etwas fehlt hier.
Dieses »Etwas« beinhaltet Begriffe wie Information, Emergenz, Zufälle, historische Kontingenz, Anpassung und Selektion – alles Merkmale komplexer adaptiver Systeme, ob es sich um Organismen, Gesellschaften, Ökosysteme oder Wirtschaften handelt. Diese Dinge bestehen aus unzähligen einzelnen Bestandteilen oder Wirkkräften, die kollektive Eigenschaften annehmen, welche im Allgemeinen anhand ihrer zugrundeliegenden Bestandteile nicht vorhersagbar sind (jedenfalls nicht im Detail), auch wenn man die Dynamik der Wechselwirkungen kennt. Im Unterschied zum Newton’schen Paradigma, auf dem die Theorie von Allem beruht, kann die vollständige Dynamik und Struktur komplexer adaptiver Systeme nicht in einer kleinen Anzahl von Gleichungen enkodiert werden. Ja, in den meisten Fällen wahrscheinlich nicht einmal in einer unendlichen Anzahl! Darüber hinaus sind Vorhersagen mit einem beliebigen Genauigkeitsgrad unmöglich, auch im Prinzip.
Vielleicht ist dann die überraschendste Konsequenz einer visionären Theorie von Allem ihre Implikation, dass das Universum – einschließlich seiner Ursprünge und Evolution – im großen Maßstab nicht komplex, sondern tatsächlich überraschend einfach ist, auch wenn es äußerst verwickelt ist, da es in einer begrenzten Anzahl von Gleichungen enkodiert werden kann. Möglicherweise in nur einer einzigen. Das steht in deutlichem Gegensatz zu dem, was uns hier auf der Erde begegnet, wo wir wesentlich zu einigen der vielfältigsten, komplexesten und chaotischsten Phänomene gehören, die im Universum insgesamt auftreten und die zusätzliche, möglicherweise nicht mathematisierbare Begriffe zu ihrem Verständnis erfordern. Obwohl wir der Suche nach einer großen vereinheitlichten Theorie aller Grundkräfte der Natur Beifall spenden und sie bewundern, sollten wir die Implikation aufgeben, dass sie im Prinzip alles erklären und vorhersagen kann. Stattdessen sollten wir uns auf eine parallele Suche nach einer Großen Vereinheitlichten Theorie der Komplexität begeben. Die Herausforderung, einen quantitativen, analytischen, prinzipienbasierten und prädiktiven Rahmen für das Verständnis komplexer adaptiver Systeme zu entwickeln, ist sicherlich eine große Herausforderung für das 21. Jahrhundert. Wie alle großen Synthesen wird sie zwangsläufig unvollständig bleiben, aber trotzdem wird sie zweifellos bedeutende, möglicherweise revolutionäre neue Ideen, Begriffe und Techniken anregen.
Marcelo Gleiser
Theoretischer Physiker am Dartmouth College; Autor von The Island of Knowledge: The Limits of Science and the Search for Meaning
So! Ich hab’s gesagt! Die ehrwürdige Vorstellung der Vereinheitlichung muss verschwinden. Ich meine nicht die kleineren Vereinheitlichungen, nach denen wir Wissenschaftler die ganze Zeit suchen und die so wenig Prinzipien wie möglich mit so vielen Naturphänomenen wie möglich verknüpfen. Diese Art wissenschaftlicher Sparsamkeit ist ein bedeutendes Fundament unserer Arbeit: Wir forschen und wir vereinfachen. Im Lauf der Jahrhunderte haben Wissenschaftler, die diesem Motto folgten, Wunder gewirkt. Newtons Gesetz der universellen Gravitation, die Gesetze der Thermodynamik, des Elektromagnetismus, das universelle Verhalten bei Phasenübergängen …
Die Probleme beginnen, wenn wir diese Idee zu weit treiben und nach der Über-Vereinheitlichung suchen, der Theorie von Allem, die erzreduktionistische Vorstellung, dass alle Naturkräfte bloß Manifestationen einer einzigen Kraft sind. Das ist die Idee, die verschwinden muss. Und ich sage das schweren Herzens; meine frühen beruflichen Bestrebungen und prägenden Jahre waren sehr stark von dem Impuls angetrieben, alles zu vereinheitlichen.
Die Idee der Vereinheitlichung ist ziemlich alt, so alt wie die abendländische Philosophie. Thales, der erste vorsokratische Philosoph, postulierte, dass »alles Wasser ist« und träumte so von einem einzigen materiellen Prinzip, um die gesamte Natur zu beschreiben. Platon schlug trügerische geometrische Formen als die archetypischen Strukturen hinter allem Wirklichen vor. Die Mathematik wurde mit Schönheit gleichgesetzt, und Schönheit mit Wahrheit. Von da aus bestand die höchste der nachplatonischen Bestrebungen darin, eine rein mathematische Erklärung für alles Existierende zu konstruieren: die alles umfassende kosmische Blaupause, das Meisterwerk einer höchsten Intelligenz. Natürlich ging es bei dem Ganzen immer um unsere eigene Intelligenz, auch wenn man sich dabei häufig auf die nebulöse Metapher des »Geistes Gottes« bezog. Wir erklären die Welt so, wie wir sie uns vorstellen. Wir können nicht aus unserem Geist heraustreten.
Der Impuls, alles zu vereinheitlichen, ist tief in den Seelen der Mathematiker und theoretischen Physiker verwurzelt, vom Langlands-Programm bis zur Superstringtheorie. Aber da liegt der Haken: Reine Mathematik ist keine Physik. Die Leistungsfähigkeit der Mathematik stammt gerade von ihrer Abgelöstheit von der physikalischen Wirklichkeit. Eine Mathematikerin kann jedes beliebige Universum schaffen, das sie will und alle möglichen Spiele damit spielen. Ein Physiker kann das nicht; seine Aufgabe besteht darin, die Natur so zu beschreiben, wie wir sie wahrnehmen. Trotzdem ist das Vereinheitlichungsspiel ein wesentlicher Bestandteil der Physik seit Galilei gewesen und hat das hervorgebracht, was es sollte, nämlich annähernde Vereinheitlichungen.
Ja, sogar die heiligsten unserer Vereinheitlichungen sind nur Annäherungen. Betrachten wir beispielsweise den Elektromagnetismus. Die Gleichungen, die die Elektrizität und den Magnetismus beschrieben, sind nur bei Abwesenheit jeglicher Ladungs- oder Magnetismusquellen vollkommen symmetrisch – d.h. im leeren Raum. Oder nehmen wir das berühmte (und schöne) Standardmodell der Elementarteilchenphysik, das auf der »Vereinheitlichung« des Elektromagnetismus und der schwachen Kernkraft beruht. Auch hier haben wir keine wirkliche Vereinheitlichung, da die Theorie überall zwei Kräfte beibehält (technischer ausgedrückt, gibt es zwei Kopplungskonstanten und zwei Eichgruppen). Eine wirkliche Vereinheitlichung, wie beispielsweise die vermutete große Vereinheitlichung zwischen der starken, der schwachen und der elektromagnetischen Kraft, die vor vierzig Jahren vorgeschlagen wurde, bleibt unerfüllt.
Was ist hier los? Warum beharren so viele darauf, in der Natur das Eine zu finden, obwohl die Natur uns ständig sagt, dass es bei ihr in Wirklichkeit um das Viele geht?
Zum einen ist der wissenschaftliche Impuls zur Vereinheitlichung kryptoreligiös. Der Westen hat Tausende von Jahren im Monotheismus gebadet, und selbst in polytheistischen Kulturen gibt es immer einen verantwortlichen Alpha-Gott (Zeus, Ra, Parabrahman). Zum anderen gibt es etwas zutiefst Anziehendes an der Gleichsetzung der ganzen Natur mit einem einzigen schöpferischen Prinzip: Die Entzifferung des »Geistes Gottes« bedeutet, etwas Besonderes zu sein, einer höheren Bestimmung zu entsprechen. Reine Mathematiker, die an die Wirklichkeit mathematischer Wahrheiten glauben, sind Mönche eines Geheimordens, der nur den Eingeweihten offen steht. Im Falle der Hochenergiephysik beruhen alle Vereinheitlichungstheorien auf einer hochentwickelten Mathematik, die sich auf reine geometrische Strukturen bezieht: Die Überzeugung ist, dass der letztendliche Code der Natur in der ätherischen Welt mathematischer Wahrheiten existiert und dass wir ihn entziffern können.
Experimentelle Daten aus der jüngeren Vergangenheit hatten eine verheerende Wirkung auf diese Überzeugung – keine Spur von supersymmetrischen Teilchen, von zusätzlichen Dimensionen oder von dunkler Materie irgendeiner Art, alles seit langem erwartete Signaturen einer Vereinheitlichungsphysik. Vielleicht wird noch etwas ans Tageslicht kommen; um es zu finden, müssen wir danach suchen. Das Problem mit der Vereinheitlichung in der Hochenergiephysik besteht darin, dass man sie immer über den Bereich experimentell zugänglicher Daten hinausschieben kann. »Der Large Hadron Collider erreichte 7 TeV und hat nichts gefunden? Kein Problem! Wer hat gesagt, dass die Natur sich für die einfachsten Varianten der Vereinheitlichung entscheiden sollte? Vielleicht geschieht alles bei viel höheren Energien, die weit jenseits unserer Reichweite liegen.«
An dieser Art von Haltung ist nichts auszusetzen. Man kann daran glauben, bis man stirbt, und man kann glücklich sterben. Oder man kann schließen, dass das, was wir am besten können, die Konstruktion von Näherungsmodellen mit Bezug darauf ist, wie die Natur funktioniert, und dass die Symmetrien, die wir entdecken, nur Beschreibungen dessen sind, was wirklich geschieht. Vollkommenheit ist eine zu schwere Last, um sie der Natur aufzubürden.
Diese Art von Argument wird häufig als defätistisch betrachtet, als von jemandem stammend, der frustriert wurde und aufgegeben hat. (Wie in »Er hat seinen Glauben verloren.«) Das ist ein großer Fehler. Die Suche nach Einfachheit ist wesentlich für die Arbeit von Wissenschaftlern. Meine eigene Arbeit besteht darin. In der Natur gibt es wesentliche organisierende Prinzipien, und die Gesetze, die wir entdecken, sind ausgezeichnete Beschreibungen dieser Prinzipien. Aber es gibt viele Gesetze, und nicht nur eines. Wir sind erfolgreiche, nach Mustern suchende, rationale Säugetiere. Allein schon das ist ein Grund zum Feiern. Wir sollten jedoch unsere Beschreibungen und Modelle nicht mit der Wirklichkeit verwechseln. In unserem geistigen Auge können wir die Vollkommenheit als eine Art ätherischer Muse bewahren. Unterdessen geht die Natur da draußen ihre eigenen Wege. Die Tatsache, dass wir es schaffen, einen Blick auf ihre innere Funktionsweise zu erhaschen, ist tatsächlich wunderbar. Und das sollte gut genug sein.
A.C. Grayling
Philosoph; Gründer und Leiter des New College of the Humanities, London; außerordentliches Mitglied des St. Anne’s College, Oxford; Autor von The Good Argument: The Case Against Religion and for Humanism
Wenn zwei Hypothesen gleich gut zu den Daten passen und dieselbe Vorhersagekraft besitzen, können außertheoretische Kriterien für die Entscheidung zwischen ihnen ins Spiel kommen. Diese beinhalten nicht nur Fragen mit Bezug darauf, welche am besten zu anderen Hypothesen oder Theorien passt, die bereits erforscht wurden, sondern auch mit Bezug auf die ästhetischen Qualitäten der konkurrierenden Hypothesen selbst – welche ist ansprechender, eleganter, schöner? –, und natürlich die Frage, welche einfacher ist.
Einfachheit ist ein Desiderat in der Naturwissenschaft, und das Streben danach ist eine Triebfeder bei der Aufgabe, komplexe Phänomene auf ihre Bestandteile zurückzuführen. Sie liegt hinter der Annahme, dass es eine einzige Kraft in der Natur geben muss, von der die Gravitationskraft, die elektroschwache und die starke Kernkraft nur Erscheinungsweisen sind; und diese Annahme ist wiederum ein Vertreter der allgemeinen Ansicht, dass es letztendlich eine einzige Art von Ding (oder Materie oder Feld oder noch unbekanntem Phänomen) geben könnte, aus dem die Vielfalt durch Prinzipien hervorgeht, die selbst fundamental und einfach sind.
So bestechend die Idee der Einfachheit auch ist, gibt es doch keine Garantie dafür, dass die Natur selbst ein ebenso großes Interesse an der Einfachheit hat wie jene, die sie zu beschreiben versuchen. Wenn die Vorstellung emergenter Eigenschaften immer noch einen Wert hat, können biologische Entitäten nicht völlig erklärt werden außer durch sie, d.h. in ihrer vollen Komplexität, auch wenn Erwägungen mit Bezug auf Struktur und Zusammensetzung unverzichtbar sind.
Zwei Maße für Komplexität sind die Länge der Botschaft, die zur Beschreibung eines bestimmten Phänomens erforderlich ist, und die Länge der Evolutionsgeschichte dieses Phänomens. In gewisser Hinsicht wird dadurch ein Gemälde von Jackson Pollock nach dem ersten Maß komplex, und nach dem zweiten einfach, während ein glatter Kieselstein an einem Strand nach dem ersten Maß einfach und nach dem zweiten komplex ist. Die Einfachheit, die man in der Naturwissenschaft anstrebt, könnte man sich als das vorstellen, was durch die Reduktion der Länge der deskriptiven Botschaft erreicht wird – etwa das Einfangen in einer Gleichung. Aber könnte es eine umgekehrte Beziehung zwischen dem Grad der erreichten Einfachheit und dem Grad der resultierenden Annäherung geben?
Natürlich wäre es schön, wenn sich am Ende alles als einfach herausstellen würde oder einer einfachen Beschreibung zugeführt werden könnte. Aber manche Dinge könnten besser oder angemessener in ihrer Komplexität erklärt werden – wieder denken wir an biologische Systeme. Widerstand gegen eine zu verschwenderische Form des Reduktionismus könnte jene albernen Arten der Kritik abhalten, die behaupten, dass die Naturwissenschaft darauf abzielt, in der Perle nichts als die Krankheit der Auster zu sehen.
Seth Lloyd
Professor für Quantentechnik am MIT; Autor von Programming the Universe
Ich weiß. Das Universum existiert seit 13,8 Milliarden Jahren und überlebt wahrscheinlich noch weitere 100 Milliarden Jahre oder länger. Außerdem, wohin würde das Universum in Ruhestand gehen? Florida ist nicht groß genug. Aber es ist an der Zeit, die 2500 Jahre alte wissenschaftliche Idee des Universums als des einzigen Volumens von Raum und Zeit, das alles enthält, in Rente zu schicken. Die Kosmologie des 21. Jahrhunderts deutet stark darauf hin, dass das, was wir im Kosmos sehen – Sterne, Galaxien, Raum und Zeit seit dem Urknall –, nicht die gesamte Wirklichkeit umfasst. Kosmos, kauf dir eine Eigentumswohnung.
Was ist das Universum denn überhaupt? Um Ihr Wissen vom Universum zu überprüfen, vervollständigen Sie bitte den folgenden Satz. Das Universum
besteht aus allen sichtbaren und unsichtbaren Dingen – was ist, war und sein wird.
begann vor 13,8 Milliarden Jahren in einer gigantischen Explosion namens Urknall und umfasst alle Planeten, Sterne, Galaxien, Raum und Zeit.
wurde vom salzigen Rand der ursprünglichen Feuergrube von der Zunge einer riesigen Kuh abgeleckt.
Alles Voranstehende.
(Die richtige Antwort steht weiter unten.)
Die Idee des Universums als eines beobachteten und vermessenen Dings hat sich Tausende von Jahren gehalten. Diese Beobachtungen und Messungen waren so erfolgreich, dass wir heute mehr über den Ursprung des Universums wissen als über den Ursprung des Lebens auf der Erde. Aber der Erfolg der auf Beobachtungen beruhenden Kosmologie hat uns an einen Punkt gebracht, an dem es nicht mehr möglich ist, das Universum – im Sinne der obenstehenden Antwort (a) – mit dem beobachteten Kosmos – Antwort (b) – zu identifizieren. Dieselben Beobachtungen, die die detaillierte Geschichte des Universums nachweisen, implizieren, dass der beobachtete Kosmos ein verschwindend kleiner Bruchteil eines unendlichen Universums ist. Die endliche Zeitdauer seit dem Urknall bedeutet, dass unsere Beobachtungen nur wenig mehr als 10 Milliarden Lichtjahre von der Erde reichen. Jenseits des Horizonts unserer Beobachtungen gibt es mehr von derselben Art – Raum, der mit Galaxien angefüllt ist, die sich endlos ausdehnen. Gleichgültig, wie lange das Universum existiert, werden wir nur zu einem endlichen Teil davon Zugang haben, während ein unendlicher Teil des Universums jenseits unserer Kenntnis bleibt. Alles außer einem unendlich kleinen Bruchteil des Universums ist unerkennbar.
Das ist ein schwerer Schlag. Die wissenschaftliche Vorstellung Universum = beobachtbares Universum hat das Handtuch geworfen. Vielleicht ist das in Ordnung. Was sollte man auch an einem Universum nicht mögen, das einen unendlichen, unerkennbaren Raum umfasst? Aber es gibt noch mehr Schläge. In dem Maße, wie die Kosmologen tiefer in die Vergangenheit eintauchen, finden sie immer mehr Hinweise darauf, dass es da draußen wohl oder übel mehr als nur den unendlichen Raum jenseits unseres Horizonts gibt. Durch rückwärtsgerichtete Extrapolation in der Zeit bis zum Urknall haben Kosmologen einen Zeitabschnitt identifiziert, der als Inflation bezeichnet wird und in dem das Universum sich im winzigen Bruchteil einer Sekunde mehrmals verdoppelte. Die überwältigende Mehrheit der Raumzeit besteht aus diesem schnell expandierenden Stoff. Unser eigenes Universum, so unendlich es auch ist, ist nur eine »Blase«, die sich in diesem inflationären Ozean gebildet hat.
Es kommt noch schlimmer. Der inflationäre Ozean enthält eine Unendlichkeit anderer Blasen, von denen jede ein unendliches, eigenständiges Universum ist. In verschiedenen Blasen können die Gesetze der Physik verschiedene Formen annehmen. Irgendwo da draußen in einem anderen Blasenuniversum hat das Elektron eine andere Masse. In einer anderen Blase gibt es keine Elektronen. Da es nicht aus einem Kosmos, sondern aus vielen besteht, wird das Universum der vielen Blasen auch Multiversum genannt. Die buntgewürfelte Natur des Multiversums mag zwar unattraktiv sein (William James, der den Begriff prägte, nannte das Multiversum eine »Metze«), aber sie ist nur schwer zu beseitigen. Als endgültige Beleidigung der Einheit deuten die Gesetze der Quantenmechanik darauf hin, dass das Universum sich kontinuierlich in viele verschiedene Geschichten, oder »viele Welten«, aufspaltet, von denen die Welt unserer Erfahrung nur eine ist. Die anderen Welten enthalten die Ereignisse, die in unserer Welt nicht stattfanden.
Nach einer zweitausendjährigen Laufzeit ist das Universum als beobachtbarer Kosmos kaputt. Jenseits dessen, was wir sehen können, gibt es eine unendliche Fülle von Galaxien. Jenseits dieser unendlichen Fülle platzt eine unendliche Anzahl von Blasenuniversen im inflationären Ozean auf. Mehr in unserer Nähe, aber auch völlig unzugänglich, verzweigen sich die vielen Welten der Quantenmechanik und pflanzen sich fort. Der MIT-Kosmologe Max Tegmark nennt diese drei Arten sich stark vermehrender Wirklichkeiten Multiversen vom Typ I, Typ II und Typ III. Wo wird das alles enden? Irgendwie schien ein einziges, zugängliches Universum würdevoller zu sein.
Es gibt jedoch Hoffnung. Die Vielheit selbst stellt eine Art von Einheit dar. Wir wissen jetzt, dass das Universum mehr Dinge enthält, als wir je sehen, hören oder berühren können. Anstatt die Vielheit der physikalischen Wirklichkeiten als Problem anzusehen, sollten wir sie als Chance verstehen.
Nehmen wir an, dass alles, was existieren könnte, auch tatsächlich existiert. Das Multiversum ist kein Defekt, sondern ein Wesensmerkmal. Wir müssen vorsichtig sein: Die Menge von allem, was existieren könnte, gehört zum Reich der Metaphysik, und nicht der Physik. Tegmark und ich haben gezeigt, dass wir uns mit einer kleinen Einschränkung vom Rand der Metaphysik zurückziehen können. Angenommen, das physikalische Multiversum enthält alle Dinge, die in dem Sinne lokal endlich sind, dass jeder endliche Teil eines Dings anhand einer endlichen Informationsmenge beschrieben werden kann. Die Menge lokal endlicher Dinge ist mathematisch wohldefiniert: Sie besteht aus Dingen, deren Verhalten auf einem Computer (genauer auf einem Quantencomputer) simuliert werden kann. Da sie lokal endlich sind, sind das Universum, das wir beobachten, und die verschiedenen anderen Universen alle in diesem Computeruniversum enthalten. Genauso wie irgendwo eine riesige Kuh.
Antwort auf den Test: (c)
Scott Atran
Antropologe am Centre National de la Recherche Scientifique in Paris; Autor von Talking to the Enemy: Religion, Brotherhood, and the (Un)Making of Terrorists
Es gibt keinen Grund zu glauben und viele Gründe nicht zu glauben, dass das Maß des sogenannten Intelligenzquotienten auf irgendeine Weise eine grundlegende kognitive Fähigkeit oder »natürliche Art« des menschlichen Geistes widerspiegelt. Das bereichsübergreifende Maß des IQ wird nicht durch irgendeine jüngste Entdeckung der Kognitions- oder Entwicklungspsychologie motiviert. Es verwischt im Grunde bereichsspezifische Fähigkeiten – ausgeprägte geistige Fähigkeiten beispielsweise für geometrisches und räumliches Denken über Formen und Lagen, mechanisches Denken über Masse und Bewegung, taxonomisches Denken über biologische Arten, soziales Denken über die Überzeugungen und Wünsche anderer Menschen usw. –, die die einzige Art kognitiver Fähigkeiten sind, für die eine evolutionäre Erklärung im Sinne der natürlichen Selektion für aufgabenspezifische Kompetenzen plausibel zu sein scheint.
Nirgendwo im Tier- oder Pflanzenreich scheint es je eine natürliche Selektion für eine aufgabenübergreifende Anpassung gegeben zu haben. Ein Gesamtmaß für Intelligenz oder geistige Kompetenz gleicht einem Gesamtmaß für »den Körper«, wobei die verschiedenen und besonderen Körperorgane und Funktionen, wie Herz, Lunge, Magen, Blutkreislauf, Atmung, Verdauung usw. nicht besonders berücksichtigt werden. Ein Arzt oder Biologe, dem man ein einziges Maß für den »Körperquotienten« (KQ) vorlegen würde, wäre nicht in der Lage, diesem viel Sinn abzugewinnen.
Der IQ ist ein allgemeines Maß für gesellschaftlich akzeptable Fertigkeiten der Kategorisierung und des Denkens. IQ-Tests wurden in der Blütezeit des Behaviorismus entworfen, als nur ein geringes Interesse an der kognitiven Struktur bestand. Das Punktesystem wurde so entwickelt, dass es eine Normalverteilung von Punkten ergab mit einem Mittelwert von 100 und einer Standardabweichung von 15.
In anderen Gesellschaften könnte eine Normalverteilung eines bestimmten allgemeinen Maßes für soziale Intelligenz ganz anders aussehen; einige »normale« Mitglieder unserer Gesellschaft könnten durchaus eine Punktzahl erreichen, die eine Standardabweichung von den »normalen« Mitgliedern einer anderen Gesellschaft im Sinne des Tests dieser anderen Gesellschaft entfernt ist. In Einfachwahlaufgaben [mit nur einer richtigen Antwort] neigen ostasiatische Studenten (Chinesen, Koreaner, Japaner) dazu, eine feldabhängige gegenüber einer objektzentrierten Wahrnehmung zu bevorzugen, thematisches Denken gegenüber taxonomischem Denken und an Beispielen orientierte Kategorisierung gegenüber einer an Regeln orientierten Kategorisierung. Amerikanische Studenten bevorzugen in der Regel das Gegenteil. Bei Tests, die diese verschiedenen Kategorisierungs- und Denkkompetenzen messen, erreichen die Ostasiaten höhere Durchschnittswerte bei ihren eigenen Präferenzen und die Amerikaner erreichen höhere Werte bei ihren. An diesen verschiedenen Verteilungen ist nichts besonders aufschlussreich, außer dass sie zugrundeliegende soziokulturelle Unterschiede widerspiegeln.
Es gibt eine lange Geschichte erbitterter Auseinandersetzungen darüber, welche Aspekte des IQ erblich sind. Die überzeugendsten Untersuchungen betreffen Zwillinge, die getrennt aufgezogen wurden, und Adoptionen. Zwillingsuntersuchungen verfügen selten über große Stichprobenumfänge; darüber hinaus geht es bei ihnen häufig um Zwillinge, die bei der Geburt getrennt wurden, weil ein Elternteil stirbt oder es sich nicht leisten kann, beide zu unterstützen, und einer der Zwillinge dann zur Erziehung durch Verwandte, Freunde oder Nachbarn übergeben wird. Dadurch wird es unmöglich, die Effekte der sozialen Umgebung und Erziehung beim Hervorbringen einer Konvergenz zwischen den Zwillingen auszuschließen. Das Hauptproblem mit Adoptionsuntersuchungen besteht darin, dass die bloße Tatsache der Adoption den IQ auf zuverlässige Weise erhöht, unabhängig von jeder Korrelation zwischen den IQs der Kinder und denen ihrer biologischen Eltern. Niemand hat auch nur die geringste kausale Erklärung dafür, wie oder warum Gene, einzeln oder in Kombination, den IQ beeinflussen könnten. Ich glaube nicht, dass das daran liegt, dass das Problem zu schwierig ist, sondern daran, dass der IQ etwas fadenscheiniges und nichts natürliches ist.
Leo M. Chalupa
Vizepräsident für Forschung an der George Washington University
Die Plastizität des Gehirns bezieht sich auf die Fähigkeit von Nervenzellen, ihre strukturellen und funktionellen Eigenschaften mit der Erfahrung zu ändern. Das scheint kaum überraschend zu sein, da jeder Teil des Körpers sich mit dem Alter verändert. Das Besondere an der Plastizität des Gehirns (aber nicht ausschließlich auf dieses Organ beschränkt) ist, dass die Veränderungen durch Ereignisse vermittelt werden, die in einem gewissen Sinne adaptiv sind. Das Gebiet der Plastizität des Gehirns leitet sich in erster Linie aus den richtungsweisenden Untersuchungen von Torsten Wiesel und David Hubel ab, die gezeigt haben, dass die Deprivation eines Auges von normalem visuellen Input während der frühen Entwicklung zu einem Verlust funktioneller Verbindungen dieses Auges mit dem visuellen Kortex führte, während die Verbindungen des Auges, dem kein visueller Input vorenthalten wurde, expandierten.
Diese Untersuchungen zeigten auf überzeugende Weise, dass frühe Verbindungen im Gehirn nicht fest verdrahtet sind, sondern durch frühe Erfahrung modifiziert werden können; daher sind sie plastisch. Für diese Arbeit und verwandte Untersuchungen, die sie in den 1960er Jahren durchgeführt hatten, erhielten Hubel und Wiesel 1981 den Nobelpreis für Physiologie oder Medizin. Seit jener Zeit hat es Tausende von Untersuchungen gegeben, die ein breites Spektrum neuronaler Veränderungen in so gut wie jeder Region des Gehirns nachgewiesen haben, welche von der molekularen bis zur Systemebene reichen und junge, erwachsene und ältere Versuchspersonen umfassen. Infolgedessen hat sich gegen Ende des 20. Jahrhunderts unsere Vorstellung des Gehirns von etwas Festverdrahtetem zum anscheinend immer Veränderbaren gewandelt. Heute ist »Plastizität« eines der gebräuchlichsten Wörter in der neurowissenschaftlichen Literatur. Tatsächlich habe ich diesen Begriff oftmals in meinen eigenen Forschungsartikeln und im Titel einiger meiner herausgegebenen Bücher verwendet. Daher werden Sie wohl fragen, was damit nicht stimmt.