Stefan Klein
ALLES ZUFALL
Die Kraft, die unser
Leben bestimmt
FISCHER E-Books
Stefan Klein, geboren 1965 in München, ist der erfolgreichste Wissenschaftsautor deutscher Sprache. Er studierte Physik und analytische Philosophie in München, Grenoble und Freiburg und forschte auf dem Gebiet der theoretischen Biophysik. Er wandte sich dem Schreiben zu, weil er »die Menschen begeistern wollte für eine Wirklichkeit, die aufregender ist als jeder Krimi«. Sein Buch ›Die Glücksformel‹ (2002) stand über ein Jahr auf allen deutschen Bestsellerlisten und machte den Autor auch international bekannt. In den folgenden Jahren erschienen die hoch gelobten Bestseller ›Alles Zufall‹, ›Zeit‹, ›Da Vincis Vermächtnis‹ und ›Der Sinn des Gebens‹, das Wissenschaftsbuch des Jahres 2011 wurde. Seine bekannten Wissenschaftsgespräche erschienen unter dem Titel ›Wir sind alle Sternenstaub‹ und ›Wir könnten unsterblich sein‹. Sein neuestes Buch ›Träume. Eine Reise in unsere innere Wirklichkeit‹ erscheint im S. Fischer Verlag. Stefan Klein lebt als freier Schriftsteller in Berlin.
Weitere Informationen, auch zu E-Book-Ausgaben, finden Sie bei
www.fischerverlage.de
Covergestaltung: hißmann, heilmann, hamburg
Coverabbildung: John Gilmoure/CORBIS
Erschienen bei FISCHER E-Books
© S. Fischer Verlag GmbH, Frankfurt am Main 2015
Abhängig vom eingesetzten Lesegerät kann es zu unterschiedlichen Darstellungen des vom Verlag freigegebenen Textes kommen.
Dieses E-Book ist urheberrechtlich geschützt.
ISBN 978-3-10-403065-4
Zum Gebrauch des Worts »Zufall« siehe Kapitel 1, Anmerkung 6
deutsch: Monod 1971
Gammaitoni et al. 1998
Interview des Autors mit dem Ehepaar Bagshaw am 9. Januar 2004
»Taxi trip reunites father and son«. BBC Radio am 9. August 2001. Über den Vorgang berichtete als Erste die Reporterin Barbara Davidson von der Lokalzeitung The Argus: »A fare to remember« am 9. August 2001.
Hamburger Abendblatt, 5. Februar 2003
»The Crash of Flight 587: The Victims«. In: New York Times, 13. November 2001
»Tragedy of New Yorkers hit twice«. BBC World Service, 13. November 2001
Dieselbe Definition, nur komplizierter ausgedrückt, bieten übrigens Philosophie-Lexika wie das Metzler’sche: »Zufälle sind jene Ereignisse, die sich weder als gesetzliche Folge eines objektiven Kausalzusammenhangs noch als intendiertes Folgeereignis subjektivrationaler Planung erklären lassen« (Prechtl und Burghardt 1999). Streng sprachanalytisch betrachtet, ist es zumindest unglücklich, von »dem Zufall« als einem eigenen Subjekt zu sprechen. Denn genau genommen ist der Zufall kein handelndes Subjekt, sondern das Attribut, auf eine bestimmte Weise unerklärlich zu sein, welches wir Ereignissen zuschreiben. Um einer anschaulichen und lebendigen Sprache willen werden wir diesem philologisch strengen Gebrauch allerdings nicht immer folgen. Mit »einem Zufall« ist also in diesem Buch stets »ein zufälliges Ereignis« gemeint, und »der Zufall« bezeichnet »zufällige Ereignisse«.
Nach Schulte 1973
Klein (S.) 2002
Gamow 1985
Zahlen nach einer Umfrage des Word Economic Forum, Genf. Siehe z.B. »Die Reichsten sind am unsichersten«. In: Süddeutsche Zeitung, 8. Januar 2004
Chaitin 2001. Es gibt allerdings leicht abweichende Definitionen der algebraischen Zufälligkeit. Während Gregory Chaitin ein Muster zufällig nennt, für das es keine kürzere Beschreibung gibt, wählt der Physiker Stephen Wolfram (2002) eine etwas abweichende Definition: Für ihn ist ein Ereignis oder ein Muster zufällig, für das wir keine kürzere Beschreibung finden können. Das mag der Fall sein, wenn eine Regel, die das Ereignis steuert, so oft iteriert wurde, dass ihre Spuren »verwischt« sind.
Chaitin 2001
Miller 1956
Broadbent 1975, MacGregor 1987, LeCompte 1999
Leibniz 1958
Zitiert nach Bernstein 1997
Cardano verwendete normalerweise den Wurf eines Würfels als Beispiel. Ich habe seine Argumentation auf das einfachere Spiel mit der Münze übertragen, um die Kerngedanken klarer hervortreten zu lassen.
Nach dem Jahresbericht der Arbeitsgemeinschaft Deutscher Rinderzüchter wurden in Deutschland im Jahr 2002 5,1 Millionen Kühe gehalten. Man rechnet mit einer Geburtenrate von ungefähr 0,85 Kälbern pro Jahr und Kuh. Demnach werden jährlich 4,1 Millionen Kälber geboren. Die Rate aller Missbildungen liegt bei zwei mit Anomalien behafteten Kälbern auf tausend geborene Nachkommen (Müller-Schlösser 1994, Herzog 1982). Dass jedes zwanzigtausendste missgebildete Kalb mit zwei Köpfen auf die Welt kommt, ist eine vorsichtige Schätzung. Die Missbildungsrate für zweiköpfige Kälber wäre demnach eines auf zehn Millionen geborene Tiere.
Das Phänomen der »kleinen Welt«, das dazu führen muss, dass sich weit voneinander entfernte Menschen manchmal wieder begegnen, ist Gegenstand intensiver Forschung. Einen aktuellen Überblick geben Watts 2003 und Buchanan 202; siehe auch Kapitel 16 des vorliegenden Buches. Für unsere Zwecke hier genügt eine kleine Modellrechnung: Wie beim Kinderspiel »Blinde Kuh« sind N Menschen in einem Raum, einem werden die Augen verbunden. Seine Aufgabe ist es, eine bestimmte der übrigen (N – 1) Personen zu finden. Die Wahrscheinlichkeit, dass ihm dies gelingt, ist
die Wahrscheinlichkeit, dass sie die gesuchte Person nicht findet, beträgt (1 – q). Nun geben wir der nächsten blinden Kuh eine Chance. Für diese Versuchsperson wird vorher eine andere Zielperson bestimmt; dabei gelten dieselben Wahrscheinlichkeiten q und (1 – q) für Erfolg und Misserfolg. Da die beiden Versuche voneinander unabhängig sind, ist die Wahrscheinlichkeit, dass keine der beiden blinden Kühe die gesuchte Person findet,
p2 = (1 – q)2
Wenn etwas allgemeiner alle N Personen im Raum nacheinander die blinde Kuh spielen und dabei nicht nur einmal, sondern m-mal ihr Glück versuchen dürfen, ist (aufgrund der Unabhängigkeit aller Ergebnisse voneinander) die Wahrscheinlichkeit, dass nie eine blinde Kuh »Treffer« meldet:
pN = (1 – q)mN.
Für N = 10 Personen und m = 3 Versuche pro Person bekommen wir zum Beispiel
p10 = 0,029.
Mit einer Wahrscheinlichkeit von mehr als 97 % wird also mindestens eine blinde Kuh ihre Zielperson finden. Um mit größeren Personenzahlen zu hantieren, empfiehlt es sich, die Wahrscheinlichkeit logarithmisch zu schreiben:
Dabei haben wir die Reihenentwicklung für den natürlichen Logarithmus verwendet; da q mit wachsender Personenzahl N sehr klein wird, können wir bereits das quadratische Glied vernachlässigen. Außerdem nähert sich dann Nq immer mehr der Eins, sodass
ln p ~ – m oder p ~ e–m
gilt. Bei größerer Personenzahl hängt also nur noch die Wahrscheinlichkeit q, dass eine bestimmte blinde Kuh ihre Zielperson findet, von der Zahl der Mitspieler ab. Sie sinkt von q = 1: 9 bei 10 Mitspielern auf q = 1: 99 bei 100 und q = 1: 999999 bei einer Million Teilnehmern. Die Wahrscheinlichkeit p dagegen, dass keine von sehr vielen blinden Kühen Erfolg hat, hängt gar nicht mehr von deren Anzahl, sondern nur von der Häufigkeit ab, mit der jede einzelne ihr Glück versucht. Bereits bei 3 Versuchen pro Person ergibt sich eine Trefferwahrscheinlichkeit für mindestens einen Beteiligten von mehr als 90 %, bei 5 Versuchen eine Chance von mehr als 99 % und bei 8 Versuchen von mehr als 99,9 %. Bereits bei einer relativ geringen Zahl von Versuchen ist es also so gut wie sicher, dass mindestens eine blinde Kuh ihre Zielperson findet.
Als Modell für die Wiederbegegnung von Menschen, die einander aus den Augen verloren haben, ist diese Rechnung sogar eher pessimistisch. Jeder von uns hat im Lauf seines Lebens den Kontakt nicht zu einem, sondern zu Dutzenden Menschen verloren und würde ein zufälliges Treffen mit einer solchen Person als höchst bemerkenswertes Ereignis empfinden. Jeder sucht also nicht wie in unserer Modellrechnung nach einer Zielperson, sondern nach vielen gleichzeitig. Entsprechend steigt die Wahrscheinlichkeit eines Treffers. Auch ist die Zahl der Versuche, die wir Tag für Tag unternehmen, viel größer als in unserer Annahme; sie entspricht der Anzahl ungewohnter Gesichter, die uns begegnen. Und schließlich ist die Durchmischung von Menschen im wirklichen Leben nicht annähernd so perfekt wie im Denkmodell des Blinde-Kuh-Spiels. Ein Angehöriger, den wir aus den Augen verloren haben, hält sich nämlich sehr viel eher in derselben Region oder zumindest im selben Erdteil wie wir auf als unter den übrigen Milliarden Menschen auf der Welt, die ebenfalls ständig nach einer von mehreren Zielpersonen Ausschau halten. Entsprechend dürfte die Trefferwahrscheinlichkeit q für jeden Mitspieler höher sein als der von uns angesetzte Kehrwert der Zahl aller übrigen Mitspieler N – 1, von deren Sucherfolg wir erfahren.
Im amerikanischen Roulette gibt es die Zahlen 1 bis 36, die Null und die Doppelnull.
Weil es beim amerikanischen Roulette 38 Zahlen gibt und der Einsatz bei Null und Doppelnull an die Bank geht, verdient die Bank im Schnitt 2/38 oder 5,2 Prozent pro Runde. Dem entspricht der mittlere Verlust der Spieler.
Inzwischen hat sich ein Hersteller gefunden, der einen Roulettecomputer nach Farmers Machart im Internet vertreibt: http://www.newtonroulette.com/.
Alle Informationen stammen aus einem Interview des Autors mit Doyne Farmer am 19. Juni 2003 und aus Bass 1985.
Zum Beispiel John Desaguliers: The Newtonian System of the World, the Best Model of Government (1728). Siehe auch Barrow 1998.
Laplace 1814
Sigmund 1995
Scheid 1996
Der Einfachheit halber denken wir uns den Lauf der Kugel reibungsfrei, sie rollt also immer mit gleicher Geschwindigkeit auf dem Board.
In der Physik heißen solche Phänomene nach den dabei auftretenden Gleichungen auch nichtlineare Dynamik. Die Grundlagen ihrer Erforschung wurden von dem französischen Mathematiker Henri Poincaré und anderen bereits an der Schwelle zum 20. Jahrhundert gelegt. Mit der zunehmenden Verbreitung der Computer als Werkzeug der Wissenschaft erlebte die Untersuchung der nichtlinearen Dynamik unter dem Schlagwort »Chaosforschung« seit den 1970er Jahren eine große Renaissance, in der mit verbesserten Methoden der Mathematik und den Möglichkeiten der Computersimulation viele neue Erkenntnisse gewonnen wurden.
Die Geschwindigkeit, mit der die Bahnen zweier um eine kleine anfängliche Unsicherheit verschobener Bahnen auseinander laufen, lässt sich im so genannten Liapunov-Exponenten messen. Eine gute Einführung gibt Ruelle 1994.
Auch hypothetische »Quantencomputer«, welche die Gesetze der im nächsten Kapitel beschriebenen Quantenmechanik ausnutzen und dadurch sehr viel höhere Rechengeschwindigkeiten erreichen würden, könnten das Problem nicht lösen. Siehe Penrose 1989.
Die Schwierigkeit der praktischen Unberechenbarkeit stellt sich bereits in einer wichtigen Klasse von Fragestellungen, bei denen der Rechenaufwand für das Überprüfen der Gültigkeit einer Lösung noch nicht einmal exponentiell, sondern nur polynomial mit dem Umfang des Problems und der gewünschten Genauigkeit ansteigt. Zu diesen so genannten NP-Problemen (NP steht für »nichtdeterministische polynomiale Zeit«) gehört beispielsweise die Aufgabe, die Route eines Reisenden so zu planen, dass er eine gegebene Anzahl M von Städten auf kürzestem Weg besucht. Wenn man schon eine Route gefunden hat, lässt sich mathematisch beweisen, dass nur Mk Rechenschritte nötig sind, um zu kontrollieren, ob dies die bestmögliche Lösung ist (k ist irgendeine natürliche Zahl). Damit ist eine solche Nachprüfung praktisch zu bewältigen. Aber Mk Schritte reichen nicht aus, um eine kürzeste Route zu finden. Ein in der Molekularbiologie besonders wichtiges NP-Problem ist die Aufgabe, vorherzusagen, wie sich ein Protein mit gegebener Aminosäuresequenz formt. Siehe hierzu auch den letzten Abschnitt von Kapitel 6 dieses Buches. Einen guten Überblick über NP-Probleme gibt Barrow 1998.
Des Physikers Michele Besso; der Brief datiert vom 21. März 1955. Speziali 1972
Blackmore 1995, Porter 1986
Einem Kollegen gegenüber klagte er einmal, absolut niemand verstünde seine besten Theorien. Siehe Broda 1955.
Lorenz 1963
Robert 2001
Stark und Hardy 2003
Tit 1, 12–13
Genau gesagt, muss die Logik die Konstruktion einer Arithmetik zulassen, also die natürlichen Zahlen 1, 2, 3 …, damit der Gödel’sche Satz gilt. Das ist für jede Logik von praktischer Bedeutung der Fall.
Negative Rückkopplung steuert einem Effekt entgegen und stabilisiert das System. Ein Beispiel ist ein Heizkörperthermostat: Sobald die Temperatur zu sehr steigt, wird die Heizung abgeschaltet und erst wieder in Betrieb genommen, wenn die Temperatur unter eine bestimmte Schwelle sinkt. Im Gegensatz dazu führt positive Rückkopplung zu Vorgängen, die sich selbst verstärken. Dies geschieht etwa bei einer Blase an der Börse, wenn die Anleger nur deswegen Aktien kaufen, weil andere kaufen und der Preis steigt. Mehr darüber im folgenden Kapitel. Im Fall der Teilchenphysik ist die Lage, wie wir sehen werden, noch etwas komplizierter.
Shiller 2000
Die allgemeine Haltwahrscheinlichkeit ist definiert als die Chance, dass ein Programm in endlicher Zeit endet, gemittelt über alle Programme und alle denkbaren Datensätze. Eigenheiten des Computers, des Betriebssystems und so weiter spielen dabei keine Rolle, da man zeigen kann, dass alle Systeme untereinander logisch äquivalent sind und auf einer so genannten universalen Turingmaschine abgebildet werden können.
Chaitin 2001, Penrose 1989
Gregory Chaitin, persönliches Gespräch mit dem Autor
Der Spin der Atomkerne ist für den Magnetismus verantwortlich. Wenn wir eine Weile mit einem Magneten an einem Nagel reiben, haben wir das Eisen magnetisiert, denn wir haben die Achsen seiner Atome in eine bestimmte Richtung gebracht – wie man Haare kämmt.
Für Experten: Der Spin eines Elektrons wird in Vielfachen des Planck’schen Wirkungsquantums h gemessen (2n – 1) h/2, n = 1, 2, …). Der Anschaulichkeit halber ist also hier h als Einheit des Drehimpulses verwendet.
Man kann mathematisch beweisen, dass zwischen beiden Problemen ein enger Zusammenhang besteht; siehe Svozil 1993.
Anton Zeilinger hat vorgeschlagen, nicht Ort und Impuls, sondern die Information selbst als Grundgröße der Physik des Allerkleinsten zu nehmen. Ein Atom trägt demnach nur ein bestimmtes Quantum an Information, die es in verschiedener Weise preisgeben kann. Sobald die Information erschöpft ist, werden weitere Experimente nur noch zufällige Ergebnisse liefern. Brukner und Zeilinger 1999, Zeilinger 2003
Mathematisch wird dieser Ausdruck von den Ungleichungen beschrieben, die der irische Physiker John Bell 1964 bewies. Siehe Bell 1987.
Nairz et al. 2003
Edelmann 1992, Penrose 1989
Barrow 1998
Popper 2001
Wolfram 2002
In einem psychologischen Versuch spielten Wissenschaftler Unbeteiligten die ersten 15 Sekunden von Vorstellungsgesprächen auf Video vor. Dann sollten die Versuchspersonen raten, wie die Sache wohl ausgehen würde. Siehe Myers 2003.
Dawes 1994
Myers 2003
Myers 2003
Word et al. 1974
Noelle-Neumann 1989
Noelle-Neumann 1991, 1980
Bofinger und Schmidt 2003a
Spiwoks 2004 a, Spiwoks 2003
Spiwoks 2004 b
Bofinger und Schmidt 2003b
Sundali und Atkins 1994
Metcalf und Malkiel 1994
Gerber et al. 2002
Shefrin 2000
Das erlebten die Anleger, die in den 1980er Jahren auf kleinere Firmen setzten, während sich die meisten anderen nur für Konzerne interessierten. Da die Kleinen zugleich billiger waren und nicht minder rentabel arbeiteten als die Großen, stiegen sie stärker im Kurs. So ließen sich mit diesen Aktien ein paar Jahre lang traumhafte Renditen erzielen, bis alle sie entdeckten. Heute ist es einerlei, auf Firmen welcher Größe man setzt.
Arthur 1999; Arthur et al. 1997
John Casti, persönliche Mitteilung an den Autor
Taleb 2002
Für die USA beispielsweise prophezeite sie ein Bruttonationalprodukt von 1,3 bis 4,5 Billionen Dollar im Jahr 2000, bezogen auf den Geldwert im Jahr 1965. Dies entspricht 7,1 bis 23 Billionen Dollar im Jahr 2000. Tatsächlich betrug das amerikanische Bruttonationalprodukt rund 9 Billionen Dollar im Jahr 1998.
Hayek 1996, Hayek 1979, Hayek 1945
Conradt und Roper 2003
Prins 1996
Conradt und Roper 2003
Corbet 1999
Gorb et al. 2000, Brookes 1997
Hoyle 1983
Lamarck 1809
Einen guten Überblick gibt Eibl-Eibesfeld 1960.
Kammerer 1919
Die biologischen Fachbegriffe sind Genotyp (für die genetische Information) und Phänotyp (für den Organismus, der von den Genen gesteuert wird).
Es gibt eine Ausnahme: die so genannte reverse Transkription, durch die Information vom Botenstoff RNS in die DNS gelangen kann. Die RNS (Ribonukleinsäure) ähnelt chemisch der DNS und trägt ebenfalls Erbinformation. Retroviren wie der Aids-Virus machen von der reversen Transkiption Gebrauch, um Körperzellen nach Bedürfnissen umzuprogrammieren. Dieser Vorgang kann aber nicht von den Eiweißen der Zelle ausgehen.
Die genaue Zahl ist unbekannt, da man annimmt, dass es in den Tropen eine riesige Anzahl noch nicht entdeckter Insektenarten gibt.
Bären wie der Koala und der Panda haben ebenfalls einen Finger, der den anderen gegenübergestellt werden kann, doch dessen Glieder sind weit weniger beweglich als unsere Daumen und erlauben daher längst nicht so feine Manipulationen.
Um gerecht zu sein: Die Fliege gehört unter den Insekten immer noch zu den besten Fliegern. Käfer, Motten und andere, die sich ebenfalls aus dem gemeinsamen Vorfahren entwickelten, sind ihr weit unterlegen.
Riedl 1975
Jacob 1983
Maynard Smith 1993, Dawkins 1999
Neue Genanalysen legen nahe, dass Elefanten außerdem mit den Flusspferden verwandt sind. Daraus hat sich in den letzten Jahren die noch unbewiesene Theorie entwickelt, dass sich der Rüssel noch früher entwickelt haben könnte – nämlich bei einem gemeinsamen, im Wasser lebenden Vorfahren beider Tiere. Die allmählich immer länger wachsende Nase hätte demnach als eine Art Schnorchel gedient, der es den Tieren ermöglichte, unter Wasser zu atmen, ohne auftauchen zu müssen. Der Rüssel habe sich dann erhalten, als die Vorfahren der heutigen Elefanten an Land gingen. Diese Theorie erklärt allerdings nicht, warum es heute keine Flusspferde mit Schnorchel mehr gibt. (Ed Hagen, Humboldt-Universität Berlin, persönliche Mitteilung an den Autor)
Der Name Hox-Gene erklärt sich aus einem immer wiederkehrenden chemischen Erkennungsmuster, der Homöobox, mit dem diese Gene versehen sind.
Wie immer der letzte gemeinsame Vorfahr von Fliege und Mensch beschaffen war – dieser frühere Mehrzeller kann weder Blutkreislauf noch einen Sehsinn besessen haben, denn diese erschienen erst viel später in der Evolution, lange nachdem sich die Abstammungslinien von Insekten und Wirbeltieren getrennt hatten. Doch in den Genen des geheimnisvollen Ahnen waren die Anlagen, die später zur Entwicklung von Augen und Herz führten, schon vorgezeichnet. Nach einem ähnlichen Prinzip werden auch einzelne Organe gebildet. Dafür gibt es so genannte Master-Gene – Schalter, welche das Wachstum eines Auges, einer Niere oder einer Lunge anregen. Dass die Master-Gene ebenfalls zwischen verschiedenen Tierarten übertragbar sind, hat der Basler Entwicklungsbiologe Walter Gehring in mehreren Schritten eindrucksvoll bewiesen. Zuerst züchtete er Fruchtfliegen mit 14 Augen an abseitigen Stellen: auf den Flügeln und an den Beinen, sogar an den Spitzen ihrer Fühler. Gehring hatte die Wirkung eines Master-Gens verstärkt, das in den Larven die Entwicklung der Augen steuert. Dann ging der Schweizer Forscher einen Schritt weiter: Er entnahm Mäusechromosomen das entsprechende Augen-Gen und schleuste es in Fruchtfliegenlarven ein. Wieder waren die ausgewachsenen Fliegenkörper mit rubinrot glitzernden Insektenaugen übersät. Die Umtauschaktion im Erbgut funktionierte auch, als Gehring seinen Fruchtfliegen das Augen-Gen eines Tintenfisches einbaute. Ähnliche Versuche funktionierten auch mit einem Gen, das in Mäusen wie in Fliegen das Herz wachsen lässt.
Cohn et al. 1999. Nur ein kleiner Wandel in der Hox-Steuerung mag es dann, rund 200 Millionen Jahre später, manchen Fischen erlaubt haben, die Ozeane zu verlassen, auf festen Grund zu kriechen und ihre Flossen abzuschaffen. Denn alles, was ein Wirbeltier für die Fortbewegung an Land braucht – Vorderbeine, Hinterbeine und Hüften –, bildet sich unter der Regie eines einzigen Hox-Gens: des Fuß-Flossen-Gens Hoxd-13. Das hat der Entwicklungsbiologe Denis Duboule von der Universität Genf herausgefunden, indem er verglich, wie seinen Mäuseembryos die Füße und wie an Zebrabärblingen, daumengroßen, blauweiß gestreiften Fischen, Flossen wachsen. Beiden Tieren wächst an der Stelle der späteren Extremitäten zunächst ein Stummel vom Rumpf gerade nach außen. Doch während der werdende Fisch es damit bewenden lässt (und den Spross nur noch mit etwas Flossenhaut schmückt), legen die wachsenden Beinknöchelchen von Landwirbeltieren am Ende eine Kurve ein: Der Fußballen entsteht, aus dem die Zehen sich fächern.
Bei den Fischen ist das Gen Hoxd-13 zu diesem Zeitpunkt schon abgeschaltet. Bliebe es auch bei ihnen etwas länger aktiv, wüchse vielleicht auch ihnen eine Art Fußballen. Möglicherweise änderte sich genau diese Abfolge, als aus Fischen die ersten Landtiere hervorgingen.
Dies stimmt für die großen Linien der kulturellen Entwicklung, für bestimmte technische Neuerungen der letzten Jahrzehnte allerdings nur bedingt. Bei einem großen Computerprogramm wie zum Beispiel dem Betriebssystem Windows bleibt der größte Teil der vorhandenen Information dem Benutzer verborgen. Dieser so genannte Quellcode, der in einer für Menschen lesbaren Symbolsprache den Ablauf des Programms ausdrückt, wird als Betriebsgeheimnis des Herstellers sorgsam gehütet und dürfte so umfangreich sein, dass vermutlich auch keiner der damit betrauten Entwickler mehr das gesamte Programm überblickt. In Anlehnung an die Sprache der Biologen könnte man daher durchaus von einem Genotyp dieser Technik sprechen; die Menüs und Graphiken auf dem Bildschirm, die als einzige dem Benutzer offenbar wären, entsprächen dann einem biologischen Phänotyp. Vielleicht nähert sich die Entwicklung der Technik umso mehr den Mechanismen der Evolution an, je komplizierter sie wird.
Gould 2000
Hayek 1996
Koestler 1964
Latour 1995
Zitiert nach Clusius 1961
Zahllose Beispiele mehr gibt Schneider 2002.
Siehe Kapitel 3, Anmerkung 13.
Klein 1993
Rechenberg 1994
Einen ausführlichen Überblick gibt http://evonet.dcs.napier.ac.uk
Keefe und Szostak 2001, Steipe 1999
Erstaunlicherweise hängt diese Zahl kaum von der Größe der Bevölkerung ab. Siehe Schuster und Sigmund 1989.
Dyson 1979
Janson 2003
Rainey 1998, Rainey 2003
Wie schnell die Evolution einer Art eine andere bedrohen kann, haben amerikanische Biologen an Rädertierchen untersucht, die Grünalgen fressen. Wenn die Algen intensiv gejagt werden, setzt sich nach wenigen Wochen durch zufällige Mutation eine kleine Variante durch, die weniger nahrhaft ist. Nun haben die Rädertierchen zu wenig Futter, ihre Zahl schwindet. Sobald die Räuber dezimiert sind, gedeihen wieder größere Algen, und das Spiel beginnt von neuem (siehe Yoshida et al. 2003). In diesem Versuch ist der Verlauf regelmäßig; bei anderen Arten hingegen – finnischen Wühlmäusen zum Beispiel – ist das Leben und Sterben in der Bevölkerung offenbar völlig chaotisch, wenn sich ein Räuber durch Mutationen fortentwickelt (siehe Turchin 2003).
Anderson und May 1991
Liebowitz und Margolis 1990
David 1985, David 1986. Wie die Umschaltung funktioniert, beschreibt für die verschiedenen Rechner www.mwbrooks.com/dvorak/support.html
Niemand benutzt mehr Beta-Videokasetten, obwohl dieser Standard den flimmernden VHS von Anfang an weit übertraf. Aber zu viele Käufer befürchteten, dass sie irgendwann keinen Nachschub an neuen Filmen für ihren Recorder mehr bekommen würden, weil sich Beta vielleicht nicht halten könnte. So kam es dann auch. Andere Beispiele sind der Kampf zwischen Apple und Microsoft, die Entwicklung städtischer Ballungszentren (zu beidem siehe Arthur 1990) und die allmähliche Verbreitung der Dampfschifffahrt (Gierer 1998).
Dahinter steht oft ein Effekt, den Ökonomen zunehmenden Grenzertrag nennen: Eine Lösung ist umso vorteilhafter, je weiter sie verbreitet ist. Ein Handy etwa bringt umso größeren Nutzen, je mehr andere Teilnehmer ebenfalls eines haben. In solchen Fällen ist der Anreiz für jeden Einzelnen groß, an einer weit verbreiteten Lösung festzuhalten, auch wenn sie nicht optimal ist. Siehe z.B. Arthur 1990.
Beispielsweise gibt es 64 Triplets aus Nukleinsäuren in der DNS, die willkürlich für nur 20 Aminosäuren codieren, aus denen die Eiweiße zusammengesetzt sind. Klein 2000, Eschenmoser 1999, Monod 1971, Crick 1968
Die Sprengkraft wird entsprechend 100 Millionen Megatonnen TNT geschätzt, das gesamte Arsenal aller Atommächte entspricht 10000 Megatonnen TNT. Siehe Morrison 1995.
Ergebnisse des Symposiums »Mesozoische und Känozoische Bioevents: Verbindung mit Impakts und anderen Ursachen«, Museum für Naturkunde Berlin, 21.–23. November 2002. Siehe auch Ulmer 2003 und darin zitierte Literatur.
Keller et al. 2004
Gould 1991, Stehli und Webb 1985
Sagan 1978
Rainey 2003
Interview mit Vizeadmiral Joe Williams, geführt am 31. August 1996. Aufgezeichnet im National Security Archive http://www.gwu.edu/~ns archiv/
Driver und Humphries 1988
Zitiert nach Driver und Humphries 1988
von Neumann 1928, von Neumann 1940
Haywood 1954
Calvino 1979
Poundstone 1992
Zitiert nach Poundstone 1985
Axelrod 1984
Nowak und Sigmund 1992
Wedekind und Milinski 1996
Glimcher 2003, Miller 1997
Evans 1998
Zitiert nach Bechtel und Stains 1997
Terman 1925
Terman und Oden 1959
Tomlinson-Keasey und Gomel 1997
Bloch 1969
Er arbeitete sich von beiden Seiten des Zahlenstrahls gleichzeitig vor, indem er zunächst die 1 mit der 100, dann die 2 mit der 99, dann die 3 mit der 98 usw. zusammenzählte; diese Teilsumme ist stets 101 und wird 51-mal aufaddiert. So fand Gauß für die Summe der ersten N natürlichen Zahlen die Formel N (N + 1)/2
Bouchard 1994, Bouchard et al. 1990
Zum Beispiel kann der Effekt der Gene dadurch überschätzt werden, dass die Adoptivfamilien erstens in ihren Lebensumständen einander ähneln und zweitens von den Jugendämtern sorgfältig ausgesucht worden sind, um den Kindern eine förderliche Umgebung zu bieten. In diesem Fall wachsen die Zwillinge unter ähnlichen Umständen auf, was einen Teil der Gemeinsamkeiten erklären kann, die sonst auf die Gene zurückgeführt werden. Vgl. Scarr und Mc-Cartney 1983. Siehe auch Baltes 1998, Plomin 1990.
McGue et al. 1993. Scarr und Mc-Cartney 1983, Scarr und Weinberg 1978
Lykken 1999, Bouchard et al. 1990
The Secret Life of Twins. Sendung der BBC London am 14. Juli 1999
Maccoby und Martin 1983
Harris 2000, Baron 1992
Rigos 1998
Rigos 1998
Tavris 1998. Die Literatur zu diesem Thema ist zahlreich. Einen umfassenden Überblick gibt das sehr lesenswerte Buch »Ist Erziehung sinnlos?« von Judith Harris (2000). Siehe außerdem Harris 1995.
Leicht verständliche Informationen über das so genannte Positive Parenting Program geben die Internetseiten www.triplep.de und http://www.geo.de/GEOmedizin_psychologie/2002_04_GEO_kunst_des_helfens_erziehungstips/index. html sowie Kucklick 2002
Gibran 2001
Lykken 1999, Lykken 1993
Tennov 1979, Kast 2004
Tennov 1979, Übersetzungen von mir
Tennov 1979
Reed & Reed 1965
Hill et al. 1976. Eine ähnliche Untersuchung an Ehepaaren über einen Zeitraum von vier Jahren bestätigt den Befund, siehe: Bentler & Newcomb 1978.
Weisfeld et al. 1992
Buston und Emlen 2003
George Miller Beard (1839–1883) gehörte zu den Pionieren der modernen Neurologie. Im letzten Jahrzehnt seines Lebens widmete er sich der Erforschung von angeblich übernatürlichen Phänomenen, die er als unbewusste Täuschungen des menschlichen Gehirns erklärte.
Schütze 1990, Burnham 1973
Strindberg 1936
Hiob 40, 9
Es gibt nur eine vollständige Faksimileausgabe. Schütze 1990
Philip 1966
Keynes 1972, Halpern 2000
Ob bestimmte sprachliche Grundregeln angeboren sind, ist umstritten, seit Noam Chomsky seine Theorien von einem erblichen »Sprachinstinkt« aufstellte. Inzwischen aber neigt die Mehrheit der Wissenschaftler der Auffassung zu, dass ein solcher Sprachinstinkt, wenn es ihn denn geben sollte, keinesfalls den ganzen menschlichen Spracherwerb erklären kann. Ohne Regeln und Bedeutungen, die wir von der Umwelt lernen, geht es nicht. In der Fachdiskussion heißt dieser Prozess der Suche nach Koinzidenzen und Übereinstimmungen »statistisches Lernen«. Für einen Überblick siehe Seidenberg et al. 2002.
Saffran et al. 1996
Bischoff-Grethe et al. 2000
Gregory Berns, persönliche Mitteilung an den Autor
Fiorillo 2003, Schultz 2002, Schultz 2000, Schultz et al. 1997
Daneben ist Dopamin auch für die Muskelsteuerung unerlässlich. Einen guten Überblick über das Thema geben Schultz 2002, Wickelgren 1997.
Wickelgren 1997, Schultz et al. 1997
Reynolds et al. 2001
Breiter et al. 2001, Knutson et al. 2001
Reichenbach 1949
Bar-Hillel und Wagenaar 1993
Gilovich et al. 1985
Griffiths und Tenenbaum 2001
Für zwei Jahre berechnet sich diese Wahrscheinlichkeit als 0,5 × 0,5 = 0,25 oder 25 Prozent, für drei Jahre ist sie 0,5 × 0,5 × 0,5 = 0,125 oder 12,5 Prozent.
Tversky und Kahneman 1982
Es gibt allerdings Situationen, in denen für eine eingehende Analyse tatsächlich keine Zeit ist – wie im Cockpit eines Düsenjets oder im Operationssaal. Um hier Entscheidungen zu treffen, haben Psychologen eigene Strategien entwickelt, die sowohl auf die knappe Zeit als auch auf die eingeprägten Gewohnheiten des Gehirns Rücksicht nehmen. Der Umgang mit solchen »Heuristiken« lässt sich trainieren, siehe Kapitel 15.
2. Mose 36–38
Rao 1995
Ebrahim et al. 2003
Emnid-Umfrage im Auftrag der Zeitschrift Laura (2003). Insgesamt wurden 1034 Männer und Frauen zwischen 20 und 60 Jahren befragt.
Matt. 2:31–33
Blackmore und Troscianko 1985
Am Roulettetisch gilt dasselbe: Wenn man den Spielern die Möglichkeit gibt, das Rad selbst in Bewegung zu setzen, verwetten sie deutlich mehr, als wenn sie nur zusehen können, wie der Croupier es andreht. Siehe Strickland et al. 1966, Langer 1975, La-douceur und Mayrand 1987, Brugger 1992.
Klein 2002
Mohr 1998
Rosenhan 1973
Die Chance für einen zufällig prophetischen Traum sei 1:10000 oder 0,0001 pro Nacht. Folglich ist die Wahrscheinlichkeit, in der betreffenden Nacht keinen prophetischen Traum zu haben, 1 – 0,0001 = 0,9999. 20 Jahre haben 365 × 20 + 5 = 7305 Nächte, darin sind die Nächte aus 5 Schaltjahren enthalten. Der Einfachheit halber nehmen wir an, dass Träume aufeinander folgender Nächte unabhängig voneinander sind. Die Wahrscheinlichkeit, in all diesen Nächten nie einen prophetischen Traum zu haben, ist die Potenz 0,99997305 = 0,481 oder 48,1 %. Mit einer Wahrscheinlichkeit von 100 % – 48,1 % = 51,9 % wird also mindestens einer der Träume prophetisch sein.
Brugger 1995, Brugger 1992
So fand man in beiden Hemisphären unterschiedliche Dichten von Rezeptoren für den Botenstoff Glutamat, welcher für das Lernen eine wichtige Rolle spielt. Siehe Kawakami et al. 2003
Gazzaniga 1998
Brugger 1992
Gazzaniga 1998
Wolford 2000
Zitiert nach Rescher 2001
Das zeigen auch Aktivitätsmessungen per Computertomographie an gesunden Menschen. Siehe Bottini et al. 1994.
Gemessen wird die Reaktionszeit, in der eine Versuchsperson auf einen Stimulus reagiert. Vorher gab es maskiert einen mehr oder minder benachbarten Reiz. Die Reaktionszeit hängt dann davon ab, wie eng die beiden Begriffe im Assoziationsgefüge des Hirns miteinander verbunden sind. Offenbar ist die Sprachverarbeitung in Netzen von Bedeutungsfeldern organisiert, und wenn ein Begriff fällt, werden die damit verbundenen Begriffe mit aktiviert. Diese Netze greifen nun in der rechten Hemisphäre weiter aus als in der linken. Siehe Chiarello 1995 und Chiarello et al. 1990.
Dies äußert sich unter anderem darin, dass Signale von der linken Hemisphäre schneller die rechte erreichen, und umgekehrt. Siehe Pizzagalli et al. 2000.
Brugger 2001, Leonhard und Brugger 1998
Klein 2002
Dimond 1976
Klein 2002
Siehe auch Drake und Ulrich 1992.
Mohr, Bracha und Brugger 2003, Taylor, Zäch und Brugger 2002
Normalerweise verschränken Rechtshänder ihre Arme so, wie sie auch die Hände falten: Der linke liegt auf dem rechten Arm, der linke auf dem rechten Daumen. Je stärker Menschen an das Schicksal glauben, umso mehr weichen sie im Durchschnitt von diesem Muster ab: Wenn ihr linker Arm über dem rechten liegt, falten sie den linken Daumen unter den rechten, oder umgekehrt. Siehe Mohr et al. 2003.
Yamamoto und Freed 1982, Glick et al. 1976
Philips 2002
P. Brugger, persönliche Mitteilung an den Autor
Paulos 2000
Umfassende Information und Literaturhinweise gibt in englischer Sprache die Webseite http://www.ncptsd.org/facts/disasters/fs_survivors_disaster.html
Verständlich aufbereitete und aktuelle Information dazu bietet das Deutsche Krebsforschungszentrum im Internet unter www.dkfz.de/Patienteninfo/index.html und www.krebsinformation.de
Brugger 1992
Bettelheim 1980
Rilke 1931
Hölldobler und Wilson 1995, Hölldobler und Wilson 1990
Nach welchen statistischen Prinzipien dies funktioniert, wird seit neuestem intensiv erforscht. Siehe z.B. Körding und Wolpert 2004, Grunwald et al. 2004.
Damasio 1995
Bechara et al. 1997
Platt und Glimcher 1999
Genauer: im interparietalen lateralen Areal der Großhirnrinde
Paul Glimcher, persönliche Mitteilung an den Autor Einen anderen Typ statistisch arbeitender Neuronen entdeckte der kalifornische Neurowissenschaftler William Newsome. Er ließ Affen einen Bildschirm betrachten, über den sich Punkte bewegten. Wenn die Tiere in die Richtung blickten, in die die meisten Punkte zogen, bekamen sie einen Schluck Saft. Erst war die Aufgabe leicht, doch mit der Zeit wirbelten die Flecken immer wilder durcheinander. Währenddessen zeichnete Newsome die elektrische Aktivität von Zellen in einem Gebiet der Großhirnrinde auf, das auf das Wahrnehmen von Bewegung spezialisiert ist. Nach einer Weile konnte er einzig aufgrund der gerade gemessenen Ströme vorhersagen, wohin der Affe im nächsten Moment blicken würde. Die Neuronen feuerten umso heftiger, je mehr Punkte sich in dieselbe Richtung bewegten und je leichter sich die Affen folglich mit ihrem Entschluss taten. Wenn die Tiere nur ein Zufallsmuster sahen und raten mussten, war die Aktivität der Hirnzellen am geringsten. An der Tätigkeit dieser Neuronen lässt sich also direkt ablesen, mit welcher Wahrscheinlichkeit die richtige Entscheidung fällt. Offenbar dienen sie nicht nur dazu, eine statistische Entscheidung zu treffen – sie sind zugleich Detektoren für Zufall, Ordnung und Wahrscheinlichkeit. Siehe Shadlen und Newsome 1996.
Ein anderes gut untersuchtes Beispiel ist das Basektballspiel nach amerikanischen Regeln. Danach bekommt eine Mannschaft für einen erfolgreichen Fernschuss auf den Korb drei Punkte, für andere Treffer nur zwei; erfahrene Spieler riskieren Weitwürfe im Verhältnis zu Angriffen aus der Nähe genauso oft, wie es dem Produkt aus niedrigerer Trefferchance und höherem Punktegewinn entspricht. Siehe Bourret und Vollmer 2003.
Driver und Humphries 1998
Herrnstein 1970, Herrnstein 1961
Glimcher 2003
Bei ähnlichen Fragen lag die Zustimmung für die sichere Variante bei mehr als 90 Prozent aller Befragten! Für eine gute Übersicht siehe Mc-Kean 1985.
Das Verhalten unterscheidet sich von dem im zuvor geschilderten Versuch mit den Affen und dem Saft, weil die Situation eine andere ist. Beim Experiment mit den Affen können die Tiere Erwartungswerte schätzen und verschiedene Möglichkeiten ausprobieren, wobei sie sich genauso häufig für die einzelnen Alternativen entscheiden, wie es den Erwartungswerten entspricht. Beim Gedankenexperiment mit der Fee hingegen kann die Versuchsperson nur eine einzige Wahl treffen.
Kacelnik und Bateson 1996, Gibbon und Church 1984
Reboreda und Kacelnik 1991
Das besagt eine Grundregel der Psychophysik; die Leipziger Anatomen Ernst Weber und Gustav Fechner haben diese Zusammenhänge schon in der Mitte des 19. Jahrhunderts erkannt.
Genau gesagt bildet die Wahrnehmung keine algebraischen, sondern geometrische Mittelwerte. Der algebraische Mittelwert zweier Größen a und b ist definiert als . Der geometrische Mittelwert dagegen ist die Quadratwurzel des Produkts der beiden Größen, in unserem Fall also . Außer bei sehr kleinen Ausgangswerten liegt das geometrische immer unter dem algebraischen Mittel.
Dieser Effekt wird beispielsweise im Marketing weidlich ausgenutzt. Ein Nachlass auf einen höheren Preis erscheint uns immer günstiger als ein Aufschlag auf einen niedrigeren. So haben es die Lobbyisten der amerikanischen Kreditkartenunternehmen geschafft, die Geschäfte dazu zu bringen, von Kunden, die mit dem Plastikgeld bezahlen, nicht einen Aufpreis für die horrende Kommission zu verlangen, sondern stattdessen diesen Aufschlag regulär auf alle Preise zu schlagen und demjenigen einen Nachlass zu gewähren, der bar zahlt. Zu Recht kalkulierten Visa und Co. damit, dass die Kunden viel eher auf den Rabatt der Barzahlung verzichten, als, von einem niedrigeren Preis ausgehend, die Kreditkartenkommission zusätzlich berappen zu müssen – auch wenn sie am Ende natürlich gleich viel Geld loswerden. Siehe Thaler 1980.
Klein 2002
Kahneman und Tversky 1984
Bernstein 1997
Einen Überblick gibt Bernstein 1997.
Kacelnik, persönliche Mitteilung an den Autor
Gigerenzer 2002. Man kann sich dies in der folgenden Graphik klar machen:
Nach Viscusi und Magat 1987. Siehe auch Piatelli-Palmarini 1994.
Dieses Fehlurteil scheint allgegenwärtig: Andere Studien haben gezeigt, dass eine Handlung eines Angeklagten, die die Wahrscheinlichkeit eines Unfalls von 0 von 1000 auf l von 1000 erhöht, als viel rücksichtsloser angesehen wird als die Tat eines anderen Angeklagten, die die Wahrscheinlichkeit eines Unfalls von 5 von 1000 auf 6 von 1000 steigert. Gleiches gilt sogar für eine Handlung, die die Wahrscheinlichkeit von 5 von l000 auf 10 von 1000 erhöht. Bestraft wird der Angeklagte also dafür, dass er das Gefühl der absoluten Sicherheit zerstört hat. Den Opfern allerdings ist das egal. Siehe Paulos 2000.
Goldman et al. 1973
Stewart und Winser 1942
Sapolsky 1992
Sapolsky 1998
Cavigelli und McClintock 2003
Die Wirkung der Stresshormone macht diesen Zusammenhang überaus wahrscheinlich. Allerdings lässt es sich nicht völlig ausschließen, dass die Ängstlichkeit überdurchschnittlich häufig mit einer weiteren gesundheitsschädlichen Anlage einhergeht, also nicht selbst für den vorzeitigen Tod verantwortlich ist.
Ott 1998
Breyer 1993
Klein 2002
Ott 1998
Neue Zürcher Zeitung, 12. Juli 2003
Krugman 1999
Bartholomew 1998
Quelle: Institut für Ernährungswissenschaften der Friedrich-Schiller-Universität Jena
Zahlen der deutschen Hauptstelle für Suchtgefahren. Siehe deren Jahrbuch Sucht 2001 und darin zitierte Literatur.
Auch Richtlinien der Europäischen Union erlauben jedem Mitgliedsstaat ausdrücklich, solche Bilder auf Zigarettenpackungen zur Vorschrift zu machen. Die deutsche Regierung macht davon keinen Gebrauch. Aktuelle Informationen über die kanadische Kampagne bietet http://www.hc-sc.gc.ca/hecs-sesc/tobacco/research/ctums/index.html
Bernstein 1997
Holzhaider 2002
Chiles 2001
Morgenstern 1978
Learmount 2001
Die Rechnung beruht auf dem Prinzip der statistischen Unabhängigkeit und ist nicht trivial. Siehe Matthews 1997, Matthews 1996.
E-Mail von Microsoft Deutschland und Gespräch mit Fr. Nadler
Building a better bug-trap. In: The Economist, 19. Juni 2003
A lemon law for software? In: The Economist, 14. März 2002