Martin Rees
Vor dem Anfang
Eine Geschichte des Universums
Aus dem Englischen von Anita Ehlers
FISCHER E-Books
Mit einem Geleitwort von Stephen Hawking
Sir Martin Rees, geboren 1942, britischer ›Astronomer Royal‹ und Professor für Astronomie in Cambridge, ist einer der führenden Wissenschaftler auf dem Gebiet der kosmischen Evolution, der Schwarzen Löcher und Galaxien. Er ist Mitglied zahlreicher britischer und internationaler Akademien. 1998 erhielt Rees den Bower Award, die höchstdotierte amerikanische Wissenschaftsauszeichnung. Auf deutsch hat er zusammen mit John Gribbin ›Ein Universum nach Maß‹ (1994) sowie mit Mitchell Begelman ›Schwarze Löcher im Kosmos‹ (1997) veröffentlicht.
Weitere Informationen, auch zu E-Book-Ausgaben, finden Sie bei www.fischerverlage.de
Covergestaltung: buxdesign, München
Dieses E-Book ist der unveränderte digitale Reprint einer älteren Ausgabe.
Erschienen bei Fischer Digital
© S. Fischer Verlag GmbH, Frankfurt am Main 2015
Abhängig vom eingesetzten Lesegerät kann es zu unterschiedlichen Darstellungen des vom Verlag freigegebenen Textes kommen.
Dieses E-Book ist urheberrechtlich geschützt.
Impressum der Reprint Vorlage
ISBN dieser E-Book-Ausgabe: 978-3-10-560850-0
Eine Ausnahme machen die seltenen radioaktiven Elemente, die sich spontan umwandeln. So verwandelt sich beispielsweise Uran langsam in Blei. Die besten Schätzungen des Erdalters ergeben sich aus Messungen des Bruchteils von Uran, der seit der Zeit der ersten Verfestigung der Erde überlebte.
Wasserstoffkerne (Protonen) können sich auf zwei Weisen zu Heliumkernen verbinden. Die eine besteht aus direkten »Proton-Proton«-Reaktionen, die andere (die möglich ist, wenn es schon schwerere Kerne gibt) ist der sogenannte »CNO-Zyklus«, bei dem Kohlenstoff, Stickstoff und Sauerstoff als Katalysatoren wirken, wobei sich ihre Gesamthäufigkeit nicht verändert.
Hans Bethes Karriere umspannt fast 70 Jahre. Er leitete die theoretische Abteilung in Los Alamos, als dort die erste Atombombe entwickelt wurde – und hat sich die letzten 50 Jahre unermüdlich für die Rüstungskontrolle eingesetzt. Darüber hinaus blieb er auch bei der Erforschung der Supernovae an vorderster Front.
Wie weiter unten in Kapitel 4 ausgeführt wird, wurde 1992 ein ungewöhnliches Planetensystem entdeckt. Sein Zentralstern unterscheidet sich sehr von unserer Sonne, er ist ein Neutronenstern, der Kreiselbewegungen ausführt. Ein derartiges Planetensystem wäre ein ungeeigneter Ort für Leben.
Carter skizzierte in derselben Vorlesung vor der Royal Society auch seine noch umstrittenere Überlegung zum Jüngsten Gericht, die zeigen sollte, daß die Menschheit mit großer Wahrscheinlichkeit nicht mehr als einige wenige weitere Jahrhunderte überleben wird. Die Überlegung beruht auf einer (anfechtbaren) Analogie mit der folgenden einfachen Gedankenkette. Man stelle sich einen Kasten vor, der N Eintrittskarten enthält, die von 1 bis N numeriert sind. Man weiß nicht, wie groß N ist: Es könnten 10 Karten im Kasten sein, aber auch Milliarden. Man zieht dann eine Karte, auf der z.B. 2452 stehen möge. Man könnte dann vermuten, daß N mit großer Wahrscheinlichkeit etwa bei 5000 liegt, so daß die ausgewählte Karte etwa in der Mitte zwischen Anfang und Ende der Folge liegt. Es wäre wenig wahrscheinlich, wenn die gezogene Zahl unter den ersten 5 % oder unter den letzten 5 % der Karten in dem Kasten läge. Wenn man 2452 gezogen hat, kann man zu 90 % darauf vertrauen, daß N weder kleiner ist als ungefähr 2600 (sonst wäre man ja in den letzten 5 %), noch größer als 50000 (sonst wäre man in den ersten 5 %). Die Überlegung zum »Jüngsten Gericht« überträgt einen derartigen Gedankengang auf die Liste aller Menschen, die je gelebt haben und noch leben werden. (Obwohl es Zehntausende früherer Generationen von Menschen gab, hat die Bevölkerung in neuerer Zeit so drastisch zugenommenm, daß mehr als 10 % aller Menschen, die je gelebt haben, heute leben.) Carter schließt, daß die Bevölkerung innerhalb weniger Jahrhunderte verschwinden oder jedenfalls stark abnehmen muß, weil wir sonst gegen alle Wahrscheinlichkeit zum ganz »frühen« Bereich gehören würden. Diese Überlegung wurde von dem kanadischen Philosophen John Leslie und von Richard Gott (dessen geniale Gedanken zu Zeitmaschinen in Kapitel 13 erwähnt werden) aufgenommen und mit Begeisterung ausgearbeitet. Ich persönlich messe der Überlegung Carters zur Seltenheit des Lebens in unserem Universum einige Bedeutung bei, hoffe allerdings, daß Biologen uns bald eine gesichertere wissenschaftliche Abschätzung geben werden. Ich kann jedoch die Überlegung zum »Jüngsten Gericht« nicht ernst nehmen, obwohl ihr deprimierender Schluß an sich nicht unwahrscheinlich ist. Die Zahl N der Karten im Kasten scheint mir keine gute Analogie zu einer Zahl darzustellen, die von einer unbestimmten und »offenen« Zukunft abhängt und auch unendlich sein könnte.
Einsteins Vertrauen in ein statisches Universum hatte ihn veranlaßt, einen »kosmischen Abstoßungsfaktor« in seine Gleichungen einzuführen, der die Schwerkraft auf kosmischem Maßstab ausgleichen sollte. Dieser Gedanke wurde, wie in Kapitel 8 beschrieben wird, vor kurzem neu belebt.
Der von Hubble untersuchte Bereich ist so klein, daß die dort herrschenden Kräfte angemessen von der Newtonschen Theorie beschrieben werden – der Fehler beträgt nur 1: 100000. Die Galaxien erstrecken sich aber in weit größere Entfernungen. Am besten stellen wir uns eine Reihe uns umgebender kugelförmiger Schalen vor, von denen sich die weiter entfernten rascher von uns entfernen als die näheren. Die Fluchtgeschwindigkeit der größeren Schalen kann der Lichtgeschwindigkeit nahe kommen, und dann reicht die Newtonsche Theorie nicht mehr aus. Friedmanns Arbeit berücksichtigte das und beschreibt in angemessener Weise ein Universum mit gleichförmiger Dichte und Ausdehnungsgeschwindigkeit. Lokale Bereiche kann man dabei immer noch hinreichend gut mit der Newtonschen Theorie beschreiben: Eine aus einer Friedmann-Welt herausgelöste Kugel gehorcht genau den Newtonschen Gesetzen. Für fast alle Berechnungen zur Bildung von Galaxien und zu ihrer Bewegung in Haufen und Superhaufen genügt das vertraute Newtonsche Gravitationsgesetz (siehe Kapitel 7).
Innerhalb einzelner Galaxien und auch innerhalb von Galaxienhaufen läßt sich keine Expansion beobachten. Das einfache »Hubble-Gesetz« gilt nur für Größenbereiche, in denen man das Universum als gleichförmig betrachten kann. In der Praxis gibt es deutliche Abweichungen bis in die Größenordnungen von Superhaufen hinein.
Als in den sechziger Jahren Quasare entdeckt wurden, kam es erneut zu lebhaften Auseinandersetzungen darüber, ob die Rotverschiebungen dieser ungewöhnlichen Objekte einen anderen Ursprung haben. Erst einige Jahre später waren fast alle Astronomen aufgrund der Beobachtungsdaten davon überzeugt, daß auch Quasare eine Hubble-Rotverschiebung aufweisen.
Bondi, Gold und Hoyle entwickelten die Steady-State-Theorie 1948, nachdem sie den englischen Film The Dead of Night gesehen hatten, in dem am Schluß die Anfangsszene wiederholt wird.
Das Licht, das wir von diesen Quasaren empfangen, wurde im extremen Ultraviolett ausgesandt. Solche Strahlung ist für unser Auge unsichtbar und kann auch nicht die Erdatmosphäre durchdringen. Aber die Rotverschiebung bei diesen außerordentlich fernen Objekten ist so groß, daß die Strahlung im sichtbaren Bereich des Spektrums liegt, wenn sie uns erreicht.
Diese Behauptung erscheint auf den ersten Blick verwirrend, wenn die Lichtgeschwindigkeit eine endgültige »Geschwindigkeitsbegrenzung« darstellt: Folgt dann nicht, daß der Quasar sich mit dem Fünffachen der Lichtgeschwindigkeit entfernt, wenn das Licht fünf Sechstel des Alters unseres gegenwärtigen Universums braucht, um zu uns zu gelangen? Einsteins Spezielle Relativitätstheorie sagt uns, daß sich nichts rascher bewegen kann als Licht, wenn die Zeit durch eine Uhr gemessen wird, die nicht an dieser Bewegung teilhat. Aber diese Theorie sagt uns auch, daß eine schnell bewegte Uhr langsamer läuft. (Dies ist die Grundlage des »Zwillingsparadoxons«, das in Kapitel 13 beschrieben wird.) Eine schnell bewegte Uhr könnte in der Tat in jeder Stunde, die sie verzeichnet, 5 Lichtstunden zurücklegen; sie müßte sich dann mit etwa 98 % der Lichtgeschwindigkeit bewegen.
Dieser Wandel im kosmologischen Denken weist einige Ähnlichkeit mit einem etwa gleichzeitigen plötzlichen und drastischen Sinneswandel bei den Geophysikern auf. Schon lange hatte Alfred Wegener die Theorie der Kontinentalverschiebung vertreten – wie der bahnbrechende Kosmologe Alexander Friedmann war auch er ursprünglich Meteorologe. Aber die Beweise waren vor 1963 nicht mehr als Hinweise. Die Geophysiker hatten keine plausible Erklärung dafür, wie die Kontinentalverschiebung zustande kommen könnte, und lehnten die Theorie überwiegend ab. Als aber die Geophysiker Drummond Matthews und Frederick Vine aus Cambridge überzeugend zeigten, daß der Meeresboden sich vom mittelatlantischen Graben ausgehend ausdehnt und Europa und Amerika auseinanderdrängt, fand der Gedanke plötzlich allgemeine Zustimmung.
Sie erkannten auch nicht, daß es schon indirekte Beweise gab, die bis 1941 zurückgehen. Der kanadische Astronom Andrew McKellar hatte bei der Untersuchung von Sternspektren in einer interstellaren Wolke die verräterischen Anzeichen von Dicyan (dieses Molekül ist aus einem Kohlenstoffatom und einem Stickstoffatom zusammengesetzt) entdeckt. Er nahm an, die Cyanmoleküle müßten völlig kalt und in ihrem niedrigsten Energiezustand (dem sogenannten »Grundzustand«) sein. Aber aus den Eigenschaften ihrer Spektren schloß er, daß sie einer Umgebung entstammten, deren Strahlung (so schätzte er) einer Temperatur von 2,4 Kelvin entsprach. Gerhard Herzberg berichtet in seiner klassischer Abhandlung über diatomare Moleküle von diesen Beobachtungen, fügt aber hinzu, diese Temperatur habe »nur sehr eingeschränkte Bedeutung«!
Lemaître sprach vom »atom primitif«, Gamow prägte dafür das Wort »Ylem«.
Die Erde hat ihren ursprünglichen Anteil an Wasserstoff und Helium verloren. Dies sind flüchtige Stoffe, welche die Schwerkraft der Erde nicht festhalten kann, sie sind jedoch in der Sonne und den riesigen äußeren Planeten weitaus häufiger als alle anderen. Die anderen Elemente – Kohlenstoff, Sauerstoff, Eisen usw. – kommen auf der Erde etwa in denselben Proportionen vor wie in der Sonne und den meisten anderen Sternen.
Diese Berechnungen setzen eine Grenze dafür, wie viele Atome im Universum in einer »dunklen« Form verborgen sein können – das ist, wie in Kapitel 6 ausgeführt, wichtig für die Frage, was dunkle Materie ist und ob es genug geben kann, um die kosmische Expansion anzuhalten.
Hewish interessierte sich vor allem für die eigenartigen, stark im Radiofrequenzbereich strahlenden fernen Galaxien. Dies waren die Objekte, deren statistische Eigenschaften es Martin Ryle ermöglichten, der Steady-State-Theorie den ersten Hieb zu versetzen (siehe Kapitel 2). Die ersten Radioteleskope lieferten jedoch leider nur verzerrte Bilder; sie zeigten beispielsweise nicht, ob die Radiostrahlung tief aus dem Inneren einer Galaxie stammte oder aus einem diffusen Bereich ihrer Umgebung. Hewish erfand ein spezielles Verfahren zur Bestimmung der Größe einer Radioquelle. Sein Verfahren nutzte dasselbe physikalische Prinzip, das auch Sterne, aber nicht Planeten funkeln läßt: Sternenlicht wird in der oberen Atmosphäre ungleichmäßig gebrochen, aber diese Unregelmäßigkeiten sind so klein, daß sie bei einem Planeten, dessen Bild eine Scheibe ist, überdeckt werden und der Effekt sich wegmittelt. Hewish entdeckte, daß der von dem deutschen Astrophysiker Ludwig Biermann vorhergesagte »Sonnenwind« (diffuses Gas, das von der Sonne aus in den interplanetaren Raum geblasen wird) Radiowellen in etwa derselben Weise beeinflußt wie die obere Atmosphäre das sichtbare Licht. Wenn Radioquellen Milliarden Jahre entfernt sind, wie Ryle annahm, sollten sie funkeln oder flimmern, wenn sie kleiner wären als eine Galaxie – nicht aber, wenn sie größer und flächenhafter wären.
Jocelyn Bell erhielt nicht annähernd die ihr gebührende Anerkennung für die Entdeckung der Pulsare. Das lag, meine ich, an den gesellschaftlichen Zwängen, die (damals noch mehr als heute) der Karriere von Frauen im Weg standen und ihren wissenschaftlichen Ehrgeiz bremsten. Nach der Promotion zog sich Bell einige Jahre lang aus der aktiven Forschung zurück – es schien damals selbstverständlich, daß die Karriere ihres Ehemanns Vorrang hatte. Hätte sie weitergearbeitet und sich in der kleinen Gruppe der Radioastronomen Gehör verschafft, die in den nächsten Jahren unser Wissen über die Pulsare festigten und viele entdeckten – wie es ein Mann mit ihrem außerordentlichen Anfangserfolg sicherlich getan hätte –, wären ihre Leistungen wohl kaum in demselben Maß übergangen worden.
Einige Pulsare umlaufen während eines Teils ihres Lebens einen Begleitstern. Sie haben eine höchst komplizierte Geschichte; sie »schrauben« sich manchmal zu äußerst raschen Rotationsraten hoch – bis zu 600 Umdrehungen pro Sekunde. Diese »Millisekundenpulsare« haben aus noch unbekannten Gründen schwächere Magnetfelder als andere Pulsare. Sie haben aber viel weniger »Ausreißer« bei ihrer Drehgeschwindigkeit und sind deshalb noch präzisere »Uhren«. Eine der Folgerungen, die wir aus dem regelmäßigen Gang dieser natürlichen himmlischen Uhren ziehen können, wird in Kapitel 12 beschrieben.
Die Energie, die nötig ist, um einen Stern in seine Bestandteile zu zerlegen (die sogenannte »gravitative Bindungsenergie«), beträgt gewöhnlich 20 % der Ruhemassenenergie (mc2). Tatsächlich lassen sich magnetische Energie und Rotationsenergie der Pulsare auf die Gravitation zurückführen. Gewöhnliche Sterne drehen sich langsam (die Rotationsperiode der Sonne beispielsweise beträgt knapp einen Monat). Wenn ein Stern (oder sein Kern) auf die Größe eines Neutronensterns zusammenfällt, dreht er sich viel rascher und energiereicher. In dieser Rotationsenergie eines »toten« Sterns steckt mehr Energie, als Kernreaktionen während seiner gesamten Lebenszeit erzeugen könnten. Diese wie in einem riesigen Schwungrad gespeicherte Energie, die letztlich von der Schwerkraft herrührt, läßt Pulsare leuchten.
Wenige Monate vor Wolzczyans Ankündigung hatte Andrew Lyne, ein Radioastronom am Jodrell Bank Observatorium in England, (aufgrund ähnlicher Überlegungen) behauptet, daß er einen weiteren Pulsar gefunden hätte, der von einem Planeten umkreist würde. Das stellte sich als falsch heraus; die Unregelmäßigkeiten in der Ankunftszeit der Pulse, die Lyne einem Planeten zugeschrieben hatte, beruhten auf einem kleinen Fehler, den er gemacht hatte, als er Korrekturen einfügte, um die Bewegung der Erde um die Sonne zu berücksichtigen. Hätte aber Wolzczyan die Behauptung von Lyne nicht gekannt, hätte er seine eigenen Daten vielleicht gar nicht so sorgfältig untersucht und seinen so bemerkenswerten Fund gar nicht beachtet – vielleicht ein Beispiel dafür, wie selbst falsche Ergebnisse gelegentlich einen konstruktiven Anreiz geben können.
Astronomen können den Dopplereffekt im Licht des Begleitsterns messen und daraus seine Umlaufzeit berechnen. Dann läßt sich aus Newtons Gravitationsgesetz berechnen, wie schwer die Röntgenquelle ist (genau wie wir die Masse der Sonne herleiten können, wenn wir die Größe der Erdbahn kennen und wissen, wie schnell sich die Erde bewegt). Die Quellen, die man für Neutronensterne hält, haben alle Massen in der Nähe von 1,4 Sonnenmassen; jene Quellen, die man für Schwarze Löcher hält (das sind jene, die unregelmäßig flackern) haben viel größere Massen.
Massereiche Schwarze Löcher können auf zwei Weisen Energie erzeugen. Wenn sie Gas oder auch ganze Sterne aus ihrer Umgebung aufnehmen, kann sich die eingefangene Materie, die in sie hineingewirbelt wird, zu etwa 10 % ihrer Ruhemassenenergie (mc2) in Strahlung verwandeln, bevor sie unwiederbringlich verschluckt wird. Dies findet vielleicht in kleinerem Maßstab in Cygnus X-1 statt. Ein zweiter interessanterer Prozeß wurde in Cambridge von Roger Blandford und Roman Znajek entdeckt. Danach verhalten sich Schwarze Löcher wie Kreisel oder Schwungräder. Blandford und Znajek zeigten, daß ein äußeres Magnetfeld, das von Gas oder Sternen in der Gastgalaxie herrühren kann, ein rotierendes Loch abbremsen und damit seine latente Rotationsenergie anzapfen könnte. Vermutlich ist das die Energiequelle der starken kosmischen Radioquellen (Kapitel 2). Astrophysiker versuchen zu berechnen, wieviel Energie in der gewonnenen Masse steckt und wieviel vom Spin des Lochs herrührt, um herauszufinden, in welcher Form sich die jeweiligen Beiträge bemerkbar machen. Solche Berechnungen spielen für die Vorstellung, die wir uns von der Aktivität in galaktischen Zentren machen, dieselbe Rolle wie die Kernphysik für Theorien der Sternstruktur und Evolution. Die Phänomene in galaktischen Zentren waren eines meiner Hauptforschungsgebiete, haben aber mit dem Thema des vorliegenden Buchs wenig zu tun.
Es gibt eine Grenze dafür, wie nahe ein Stern einem Schwarzen Loch kommen kann, ohne Schaden zu nehmen. Der Stern würde auf Gezeiteneffekte reagieren – den Gradienten in dem Gravitationssog, der den Stern auseinanderzieht. Diese Kräfte könnten den Stern zerreißen, wenn sie zu stark sind. Die Gezeitenkräfte sind bei den größten Löchern an der »Oberfläche« weniger heftig; das Loch in M 87 könnte einen Stern von der Art der Sonne verschlucken, ohne ihn zu zerreißen. Wenn die Masse des Lochs jedoch unter 100 Millionen Sonnen liegt (dem Bereich, der für die nächsten Galaxien wichtig ist), würde ein Stern wie die Sonne von den Gezeiten zerrissen werden, wenn seine Entfernung vom Loch weniger als das Zehnfache des Radius beträgt. (Ein sehr kompakter Stern – beispielsweise ein Weißer Zwerg – könnte mehr oder weniger intakt in ein massereiches Schwarzes Loch fallen.) Ein Stern reagiert auf komplizierte Weise, indem er entlang der Bahnrichtung gedehnt, senkrecht zur Bahn zusammengepreßt und stark gestaucht wird. Dieses Phänommen läßt sich bis heute noch nicht auf dem Computer simulieren. In wenigen Jahren sollten uns genaue Computermodelle ermöglichen, die Kennzeichen (Dauer, Farbe usw.) der »Flares« zu berechnen: kurzfristige Strahlungsausbrüche, die dann auftreten, wenn ein Stern zerstört wird. Die Astronomen können dann nach Hinweisen auf diese Ereignisse suchen, die wiederum unmittelbare Hinweise auf die Bedingungen in großer Nähe des Lochs geben.
Mathematische Physiker lassen sich in zwei Gruppen einteilen. Einige denken dann, wenn sie wichtige Gleichungen gefunden haben, mehr über die Gleichungen nach als über die von ihnen beschriebenen physikalischen Phänomene (Chandrasekhar beispielsweise dachte sehr stark in Gleichungen). Andere wiederum finden bildliche oder geometrische Begriffe hilfreich. Zu ihnen gehört Penrose: Er kann sich vier oder mehr Dimensionen so leicht vorstellen wie die meisten von uns zwei.
Bemerkenswert sind auch die Breite und die Originalität seiner Einsichten. Er hat viele Jahre auf die Entwicklung seiner Theorie der »Twistoren« verwendet – wonach es in Raum und Zeit nicht Punkte gibt, sondern verwobene »Lichtkegel«. Selbst die Unterhaltungsmathematik hat von ihm profitiert. Er entwarf »Penrose-Kacheln«, Überdeckungen der Ebene, in denen es auch dann keine Wiederholungen gibt, wenn die überdeckte Fläche beliebig groß ist. Diese Arbeit wurde von Kristallographen aufgegriffen, als sie die sogenannten »Quasikristalle« zu verstehen suchten. Diese Kristalle weisen anscheinend eine pentagonale Symmetrie auf, aber es ist bekannt, daß es keine regelmäßigen pentagonalen Gitter gibt. Roger Penrose entwickelte gemeinsam mit seinem Vater Lionel (einem Genetiker) »unmögliche Objekte« – perspektivische Zeichnungen, die sich nicht widerspruchsfrei als feste Körper deuten lassen. Sie sind uns vertraut, weil sie beispielsweise Zeichnungen von M. C. Escher zugrunde liegen.
Penrose erörtert viele dieser Themen in seinem Buch Computerdenken – einem Streifzug durch alles, was ihn begeistert. Er spricht darin zwei ungelöste Grundprobleme an, nämlich die Vereinheitlichung von Gravitationstheorie und Quantentheorie und das Wesen von Bewußtsein und menschlichem Denken. Er behauptet, daß diese beiden Mysterien etwas miteinander zu tun haben – was von anderen heftig bestritten wird. Sein Buch war ein außergewöhnlicher Verkaufserfolg, offensichtlich wurde die Botschaft, daß der menschliche Geist mehr ist als eine »reine Maschine«, gern gehört.
Hawking ist der Öffentlichkeit natürlich vor allem durch sein Buch bekannt, das er in einem ganz anderen Stil schrieb als das mit George Ellis. Das wunderbarste an Eine kurze Geschichte der Zeit ist, daß dieses Buch überhaupt geschrieben werden konnte. Nachdem Hawking einen ersten Entwurf verfaßt hatte, erlitt er einen weiteren gesundheitlichen Rückschlag, der ihn eine Weile vollständig lähmte. Er konnte sich damals nur verständigen, indem er seine Augen auf den jeweils einem Buchstaben des Alphabets entsprechenden Teil einer großen Tafel richtete. Ohne Computertechnologie hätte er niemals etwas anderes vermitteln können als die einfachsten Bitten. Dann aber ermöglichte es ihm ein mit einem Hebel gesteuerter Word-Prozessor, das Buch, wenn auch langsam und unter Schmerzen, zu vollenden. Mit Hilfe eines Sprachsynthesierers kann Hawking sich jetzt deutlicher und verständlicher artikulieren als zuvor und sogar (nach sorgsamer Vorarbeit) ungeheuer populäre öffentliche Vorträge halten. Wenn die Verfahren der maschinellen Übersetzung weiter große Fortschritte machen, wird er demnächst Japaner und Koreaner ohne zusätzliche Mühen in ihrer eigenen Sprache ansprechen können.
Ein Kollege erzählte mir einmal, daß ein Fachartikel im Mittel 0,6 Leser hat (und fragte sich, etwas zynisch, ob der Gutachter dabei schon mitgezählt worden sei).
Eine umfassendere Darstellung der eher beobachtungsorientierten Fragen, die in diesem und dem vorangegangenen Kapitel erwähnt wurden, findet sich in dem Buch Schwarze Löcher im Kosmos von Mitchell Begelman und mir.
Arthur Eddington hat sich nach 1930 in eine numerologische »Fundamentaltheorie« vertieft, die bei seinen Zeitgenossen auf wenig Resonanz stieß. Nach einer seiner Vorlesungen fragte ein besorgter Student seinen Doktorvater, den Physiker Samuel Goudschmidt, wie man vermeiden könne, daß es einem selbst einmal später im Leben so gehen würde. Goudschmidt beruhigte ihn: »Machen Sie sich keine Sorgen. Das geht nur Genies so; wir anderen werden nur immer dümmer.«
Astronomen haben eine detaillierte Rangordnung für Galaxien erstellt und klassifizieren sie nach Größe, Form und den in ihnen vorherrschenden Sterntypen. Gerard de Vaucouleurs – weltweit die Autorität für galaktische Morphologie – formulierte ein System mit über 100 Kategorien, und selbst dieses erfaßt noch nicht alle »ausgefallenen« Arten.
Wir können mit Ausnahme der hellen Sterne in den uns nächsten Galaxien nicht einmal auf den besten und schärfsten Aufnahmen von Galaxien einzelne Sterne erkennen.
Adams hatte das Ergebnis seiner fünfjährigen Berechnungen dem Königlichen Astronomen, Sir George Airy, und Challis, dem Direkter der Sternwarte in Cambridge, mitgeteilt, aber beide waren skeptisch. Leverrier, der aufgrund seiner Berechnungen Bahn, Masse und Position des unbekannten Störenfrieds angeben konnte, fand keinen französischen Astronomen, der sich die Mühe machen wollte, seine Vorhersage durch Beobachtung zu überprüfen. Deshalb nahm er die Gelegenheit wahr, an Galle zu schreiben: »Gegenwärtig suche ich nach einem ausdauernden Beobachter … Richten Sie Ihr Fernrohr auf den Punkt der Ekliptik im 326. Längengrand im Sternbild Fische, und Sie werden innerhalb eines Grades davon einen neuen Planeten finden, der wie ein Stern etwa der 9. Größenklasse aussieht und eine wahrnehmbare Scheibe zeigt.« Galle, damals Assistent, bat den Direktor der Sternwarte, ihm die Suche zu gestatten, und erhielt die Erlaubnis, weil der Direktor seinen Geburtstag feiern und deshalb nicht selbst beobachten wollte. Mit Hilfe des Studenten Heinrich d’Arrest machte Galle sich an die mühsame und langwierige Arbeit, Position und Helligkeit aller in Frage kommenden Sterne mit der Karte zu vergleichen – zufällig standen ihnen die Korrekturbögen einer ausgezeichneten neuen Karte zur Verfügung –, und hatte schon nach einer Stunde Erfolg! Die Freude war für Adams und seine Landsleute nicht ungetrübt, denn sie hätten den Ruhm der Entdeckung gern für sich in Anspruch genommen. Noch immer steht in Cambridge ein 12-Zoll-Refraktor, dessen Verdienst es vor allem ist, daß Neptun mit ihm hätte entdeckt werden können.
Die Röntgenastronomie bietet eine weitere Möglichkeit, dunkle Materie sowohl in Galaxienhaufen als auch in einzelnen elliptischen Galaxien nachzuweisen. Diese Systeme sind durchdrungen von dünnem heißen Gas, das im wesentlichen von der Schwerkraft in den Haufen gehalten wird. Aus der Röntgenstrahlung lassen sich die Temperatur und der Druck des Gases berechnen. Das Gas ist so heiß, daß es nicht in diesen Bereichen bleiben würde, wenn nicht eine stärkere Gravitationskraft darauf wirkte, als von den Sternen allein ausgeht.
Weil das Sonnensystem in unserer Galaxis eine Bahn beschreibt, die auch den Halo durchläuft (der selbst langsamer rotiert als die Scheibe der Galaxis), müßten Zusammenstöße vor allem in unserer Bewegungsrichtung erfolgen. Dadurch könnten sich »echte Ereignisse« von jenen unterscheiden lassen, die (beispielsweise) von der Radioaktivität des Gesteins herrühren. Außerdem ändert sich die relative Geschwindigkeit der Erde in bezug auf die Teilchen im Halo im Lauf des Jahres, weil die Erde die Sonne umläuft. Deshalb sollte die Rate der Ereignisse im Lauf des Jahres schwanken. Wenn es eine solche jährliche Schwankung mit einer Amplitude von wenigen Prozent gäbe, die im Juni einen Höchstwert erreicht, würde das zeigen, daß die Ereignisse von Teilchen aus der Galaxis verursacht werden, auch wenn wir nicht wissen, aus welcher Richtung sie kommen.
Es bedeutete einen besonders großen Fortschritt, als die photographischen Platten durch eine neue Art von Lichtsensoren ersetzt wurden, sogenannte ladungsgekoppelte Detektoren (CCD = Charge-coupled Device). Eine photographische Platte hat eine »Quanteneffizienz« von wenig mehr als 1 % – in der photographischen Emulsion wird also von 100 Lichtquanten (oder Photonen) nur eines registriert. Bei den CCD ist die Effizienz dagegen bis zu 80 %. Dies ist nicht der einzige Grund, warum erdgebundene Teleskope heute sehr viel besser sind als früher. Spektren brauchen nicht mehr einzeln aufgenommen zu werden, denn lichtleitende Glasfasern ermöglichen es, mehrere 100 Objekte im Gesichtsfeld gleichzeitig zu untersuchen.
Ein weiterer Vorteil größerer Spiegel ist, daß sie schärfere Bilder ergeben. Aber selbst wenn die Spiegel vollkommen wären, würde die Luftunruhe die Bilder besonders in blauem Licht verwischen. Auf Dauer hoffen die Astronomen, das Flimmern der Atmosphäre mit zu registrieren und sofort korrigieren zu können. Die USA haben diese Verfahren im Rahmen des SDI-Programms für militärische Zwecke erforscht; diese Arbeiten wurden später zur »zivilen« Nutzung freigegeben.
Im Englischen wird gern der Begriff »ripples« verwendet.
In unserem Universum spielen außer der Schwerkraft auch andere Kräfte eine Rolle. Eine Galaxie entsteht durch das Kollabieren eines Bereichs mit einem Durchmesser von 100000 Lichtjahren. Das Gas, aus dem sie besteht, strahlt die durch die Kontraktion freigesetzte Wärme ab, sammelt sich zu einer Scheibe und zerfällt in Millionen kleinerer Wolken, von denen jede groß genug ist, der Geburtsort von Sternen zu werden; damit wird ein neuer Zyklus eingeleitet, bei dem alle Elemente des periodischen Systems entstehen und verteilt werden.
Die Unebenheit des frühen Universums (sozusagen die »Höhe« des Gekräusels) könnte im Prinzip von der Größenordnung abhängen. Für die Harrison-Zeldovich-Schwankungen ist Q jedoch in allen Größenordnungen gleich und eine Grundgröße.
Der Wert für Q, der aus den COBE-Daten folgt, stimmt mit dem überein, der sich aus Schätzungen von Superhaufen, der Großen Mauer usw. ergibt. Wenn man auf Galaxienhaufen und einzelne Galaxien extrapolieren will, muß man Annahmen über die dunkle Materie machen. Die Daten für die kleineren Gebilde sind nur dann mit der CDM-Theorie verträglich, falls Q etwa halb so groß ist, wie die Daten von Superhaufen und COBE es nahelegen. Es gibt mehrere Möglichkeiten, die übliche CDM-Theorie so »zurechtzubiegen«, daß diese Unstimmigkeit zwischen kleineren und größeren Skalen behoben wird. Die Anfangsfluktuationen könnten beispielsweise mit wachsender Skala größer werden; das würde bedeuten, daß Q nicht für das ganze Universum konstant ist. Die Übereinstimmung wäre auch besser, wenn Neutrinos gerade genug Masse haben, um 20 % der dunklen Materie zu liefern (die restlichen 80 % wären »kalt«). Die Neutrinos aus dem frühen Universum hätten kleinräumige Schwankungen »verwischt«, großräumigere verstärkt. Wenn es experimentelle Bestätigungen für eine Neutrinomasse gäbe, würden viele Kosmologen diese »Zwitter«-Hypothese für die dunkle Materie befürworten. Die Übereinstimmung wird auch verbessert, wenn es weniger dunkle Materie gibt, als nötig wäre, um die »kritische« Dichte zu erreichen – jene Dichte (siehe Kapitel 8), die nötig ist, damit die universelle Expansion schließlich einmal zu einem Halt kommt.
Man könnte sich bei dem Gedanken unbehaglich fühlen, Newtons Gravitationstheorie auf das ganze Weltall anzuwenden. Aber obwohl man die globalen Eigenschaften eines Universums und auch die Lichtausbreitung nicht angemessen ohne eine so hochentwickelte Theorie wie die Einsteinsche Relativitätstheorie beschreiben kann, sind die Beziehungen zwischen Expansion und Dichte in einem homogenen und isotropen Universum doch mehr oder weniger so, wie sie Newtons Theorie beschreibt.
Die hier genannte kritische Dichte von 5 Atomen pro Kubikmeter entspricht einer Hubble-Zeit tH von 10 Milliarden Jahren; die tatsächliche kritische Dichte hängt von 1/tH2 ab. Glücklicherweise hängen viele Verfahren zur Messung kosmischer Dichten in ähnlicher Weise von tH ab. Die weiter unten in diesem Kapitel erwähnten Ungewißheiten in bezug auf die Hubble-Zeit wirken sich nicht unbedingt auch auf Abschätzungen von Omega aus. (Leider lassen sich diese Dichten aus ganz anderen Gründen schwer abschätzen!)
Ein solches »bevorzugtes Bezugssystem« ist durchaus mit Einsteins Theorie verträglich, denn danach ist die lokale Physik in allen frei bewegten Raumschiffen gleich, der Blick aus dem Fenster zeigt aber nicht bei allen dasselbe. Nur in diesem Bezugssystem würden wir die Expansion des sehr fernen Universums als isotrope Fluchtbewegung beobachten. Jeder andere Beobachter würde in der Bewegungsrichtung kleinere Rotverschiebungen beobachten und in der entgegengesetzten größere.
Was wir wirklich brauchen, ist ein Verfahren, das Konzentrationen dunkler Materie in der Größenordnung von Superhaufen zeigt und das alle Ungewißheiten in bezug auf galaktische Bewegungen und Entfernungen und den Zusammenhang zwischen Galaxien und dunkler Materie umgeht. Ein neuer Ansatz sucht nach den Verzerrungen der Bilder sehr entfernter Galaxien, die von der Lichtablenkung durch Superhaufen entlang der Sichtlinie herrühren. Solche Verzerrungen wurden schon bei Galaxien beobachtet, die hinter Haufen liegen (siehe Kapitel 6). Die dunkle Materie ist in Superhaufen vermutlich weniger konzentriert als in Haufen und erzeugt deshalb in einem Superhaufen keine sehr verzerrten oder vergrößerten Bilder. Aber Superhaufen sind so große Gebilde, daß hinter jedem von ihnen Hunderttausende schwach leuchtender Galaxien liegen könnten. Diese würden entsprechend verzerrt, so daß selbst eine Verzerrung von nur einigen wenigen Prozent auf statistische Weise entdeckt werden könnte, wenn alle Galaxien im Hintergrund gleichermaßen betroffen sind.
Die Abstände zwischen Galaxien betragen nur das Zehnfache ihrer Gesamtgröße – in Galaxienhaufen noch weniger. Dagegen sind die Sterne in jeder Galaxie um das Millionenfache ihrer eigenen Größe voneinander entfernt. Zusammenstöße zwischen Galaxien sind gar nicht besonders selten. Andererseits stoßen Sterne höchstens im inneren Kern von Galaxien, wo sie besonders eng gepackt sind, zusammen.
Diese Einschränkung für die Dichte der Kerne im frühen Universum führt auf direktem Weg zu einem Grenzwert für die jetzige Atomdichte, weil das Maß der Expansion (und folglich der Verdünnung) direkt damit zusammenhängt, um wieviel die Temperatur gesunken ist. Die heutige Temperatur liegt nur knapp über dem absoluten Nullpunkt. Bei der Abkühlung von 3 Milliarden Kelvin auf 3 Kelvin hat sich das Universum um das Milliardenfache (10 9) gedehnt und seine Dichte um 10–27 verringert. Diese Schätzungen lassen sich verbessern, wenn man in Betracht zieht, daß Deuterium in Sternen vernichtet wird, und indem man die Häufigkeit von Helium und auch von Lithium berücksichtigt (Lithium ist ein seltenes Element, das wie Deuterium und Helium vermutlich dem Urknall entstammt).
Die genaue Schranke hängt von der Hubble-Zeit ab. Die hier genannte Zahl ist eine großzügige Obergrenze. Es hat Versuche gegeben, diesen Schluß zu umgehen oder wenigstens abzuschwächen, indem man annahm, daß die Baryonen im frühen Universum nicht gleichförmig, sondern eher »klumpig« verteilt waren. Dies ist eine nicht theoretisch begründete Ad-hoc-Annahme. Außerdem erweitert sie den erlaubten Bereich der Dichten nicht wesentlich.
Die Frage der »Flachheit« wird weiter unten in Kapitel 10 diskutiert.
Der Begriff der Vakuumenergie taucht in Kapitel 10 in Verbindung mit der »inflationären« Phase des sehr frühen Universums wieder auf. Nach dieser Theorie hatte das Vakuum ursprünglich eine sehr hohe Energie (was einem sehr großen Lambda entsprach). So gesehen scheint es jetzt keine Einwände gegen die Existenz eines von Null verschiedenen Lambda zu geben – das Geheimnis ist eher, warum Lambda nicht unannehmbar groß ist.
Aus mathematischer Sicht könnte unser Universum sogar »mehrfach zusammenhängend« sein. Dann könnte sich unsere Umgebung immer weiter ausdehnen, obwohl wir uns weiter in einem »kleinen« Universum befinden, weil wie in einem Kaleidoskop bei der Expansion immer wieder dieselben endlichen Volumina der Gitterstruktur sichtbar werden. Bis vor kurzem ließ sich diese seltsame Möglichkeit nicht überprüfen. Wir können aber jetzt eine »Zellgröße« ausschließen, die kleiner ist als das jetzt beobachtbare Universum. Die Hinweise ergeben sich daraus, daß wir bis jetzt keine Duplikate so auffälliger Strukturen wie Haufen und große Mauern gefunden haben. Außerdem zeigen die von COBE entdeckten Ungleichförmigkeiten in der Hintergrundstrahlung Größenordnungen bis hin zum Hubble-Radius: Es gibt keine Hinweise darauf, daß es auf dem Weg dahin eine Grenze gibt.
In Universen ohne Lambda verlangsamt sich die Expansion, weil alles auf alles andere eine Schwerkraft ausübt. Wenn die Dichte wirklich in der Nähe des kritischen Werts liegt (Omega also 1 ist), erweist sich das Gesetz für die Verlangsamung als besonders einfach: Wenn sich die Galaxien um das Vierfache voneinander entfernt haben, ist das Universum achtmal so alt wie jetzt (nicht nur viermal, wie es wäre, wenn sich die Expansion nicht verlangsamen würde). Jede sich ausdehnende Kugel hat eine Gravitationsenergie, die proportional ist zum Reziproken des Radius, und eine kinetische Energie, die vom Quadrat der Ausdehnungsgeschwindigkeit abhängt. Für Omega = 1 ist die Gesamtenergie einer jeden Kugel, die man aus dem expandierenden Universum »herausschneiden« würde, genau Null, weil die (positive) kinetische Energie gleich der (negativen) Gravitationsenergie ist. Wenn sich das Universum um einen Faktor 4 ausdehnt, nimmt die gravitative Bindungsenergie jeder Kugel um den Faktor 4 ab. Die kinetische Energie, die proportional zum Quadrat der Geschwindigkeit ist, muß um denselben Faktor abnehmen, was bedeutet, daß die Ausdehnungsgeschwindigkeit nur noch halb so groß ist. Das Alter des Universums (Radius/Geschwindigkeit) hat deshalb um das Achtfache zugenommen, genau wie die Entfernung, die das Licht zurücklegen konnte (also die Entfernung zum Horizont). In diesem Stadium sind die Galaxien in dem verlangsamten Universum jedoch nur noch viermal so weit entfernt. Alles, was wir heute sehen, wird deshalb in dieser fernen Zukunft weniger als halb so weit vom neuen Horizont entfernt sein. Der neue Horizont wird also 23 = 8mal soviel Galaxien enthalten.
Die Hintergrundtemperatur ist bis auf ein Hunderttausendstel in alle Richtungen gleich, in die wir sehen können. Abweichungen von der Gleichförmigkeit sind deshalb klein. Wir können sogar in Größenordnungen, die etwas über den Hubble-Radius hinausgehen, Aussagen über »Klumpen« oder Wellen machen, weil die sich ergebenden Gradienten die Hintergrundstrahlung auf der einen Seite unseres Universums stärker erhöhen würden als auf der anderen. Aber unsere Beobachtungen können nichts über Dimensionen aussagen, die tausendmal größer sind als der heute erkennbare Horizont, weil die Gradienten der Hintergrundstrahlung bei weitem zu gering wären.
Diese Experimente waren nicht vollständig ergebnislos. Ein unerwarteter Erfolg war, als man, wie in Kapitel 6 beschrieben, Neutrinos von der Supernova 1987A entdeckte. In denselben unterirdischen Labors werden auch andere Experimente durchgeführt, bei denen möglicherweise Teilchen entdeckt werden könnten, aus denen die dunkle Materie besteht.
Der Raum eines solchen Universums hat eine flache Geometrie im Gegensatz zur gekrümmten Geometrie des Einsteinschen Raums.
Der Grund für diese Spannung läßt sich durch eine sehr einfache Überlegung verdeutlichen. Man denke an ein mit einem beweglichen Kolben verschlossenes leeres Glas (also ein Glas, das ein Vakuum enthält). Wenn der Kolben nach außen gezogen wird, wird das Volumen des Vakuums größer. Wenn das Vakuum eine konstante Energiedichte hat, hat der Inhalt des Behälters also Energie gewonnen. Das ist das Gegenteil von dem, was passiert, wenn der Behälter heißes Gas enthält: Das Gas wird durch die Expansion verdünnt und kühlt sich ab. Die dabei verlorene Wärmeenergie wird in Arbeit verwandelt, die von dem Druck geleistet wird, der den Kolben schiebt. Das Vakuum übt also einen »negativen Druck« auf den Kolben aus. (Der Vergleich zwischen dem Raum und einem Glas hinkt natürlich. Der Raum läßt sich nicht in einen Behälter sperren, und nur die Expansion eines ganzen Universums kann die Menge der Vakuumenergie verändern.)
Die Energiezufuhr vom »Vakuumzerfall« könnte das Universum so stark erwärmt haben, daß die in Kapitel 9 erörterten Prozesse – bei denen mehr Materie als Antimaterie übrigblieb – ablaufen konnten.
Es ist kein Zufall, daß der Gedanke der Inflation erst um 1980 ernst genommen wurde und nicht schon viel früher. Damals wurde versucht, eine »Große Vereinheitlichte Theorie« aufzustellen, bei der die Erhaltung der Baryonenzahl nicht gewährleistet ist: Solche Theorien bestätigten Sacha-rows Vorschlag, wie ein Überschuß von Materie über Antimaterie erzeugt werden kann. Wenn die Baryonenzahl streng erhalten bliebe, müßten die 1080 Baryonen, die wir jetzt beobachten, schon von der Zeit t = 0 an dagewesen sein, und es wäre nur schwer einzusehen, wie alles aus einem infinitesimalen Volumen entstanden sein könnte, wenn es schon immer so ungeheuer viele Teilchen gegeben hätte. Die Physik muß zulassen, daß der Raum erst nach dem Ende der Inflation mit Baryonen bevölkert wird, ohne daß gleichzeitig eine gleiche Anzahl von Antibaryonen entsteht.
Anders als die Baryonenzahl bleiben einige Größen – beispielsweise die elektrische Ladung – streng erhalten. Die gesamte elektrische Ladung in unserem Universum sollte daher in der Tat jetzt und immer genau Null sein.
Die chaotische Inflation wird beispielsweise in Lindes Buch Elementarteilchenphysik und inflationäre Kosmologie beschrieben.
Man kann solche Übergänge auch bei Magneten finden: Bei hohen Temperaturen verschwindet der Magnetismus, weil die einzelnen Atome thermisch so angeregt sind, daß ihre Orientierung rein zufällig ist. Aber wenn ein magnetischer Stoff unter eine bestimmte Temperatur, den sogenannten Curie-Punkt abkühlt, richten sich die Atome spontan aus, wobei die Richtung im allgemeinen nicht vorhersagbar ist.
Ein Schwarzes Loch hat eine wohldefinierte Temperatur, die proportional zur Gravitationskraft knapp außerhalb des Lochs ist. Diese Kraft hängt von M/r2 ab. Der Radius r eines Lochs nimmt mit seiner Masse M zu, deshalb hängt diese »Hawking-Temperatur« von M/M2 ab – sie verhält sich also reziprok zur Masse des Lochs.