Dieses E-Book ist die digitale Umsetzung der Printausgabe, die unter demselben Titel bei KOSMOS erschienen ist. Da es bei E-Books aufgrund der variablen Leseeinstellungen keine Seitenzahlen gibt, können Seitenverweise der Printausgabe hier nicht verwendet werden. Statt dessen können Sie über die integrierte Volltextsuche alle Querverweise und inhaltlichen Bezüge schnell komfortabel herstellen.
Vom Uratom zum Universum
© VIMOS-VLT Deep Survey/ESO/ Klaus Dolag
Computersimulation zur Bildung großräumiger Strukturen im Universum. Die »Nadeln« zeigen die Bewegung von Galaxien zum Massenzentrum an.
Ein wahrhaft großer Sprung, der ähnlich anmutet, wie der Weg vom Einzeller zum Menschen. Am Anfang steht etwas ganz Einfaches, woraus sich im Lauf der Zeit durch Selbstorganisation etwas außerordentlich Komplexes entwickelt. Doch wie kommt man auf die Idee, dass das Universum aus einer Art Uratom entstanden sein soll?
Bereits im fünften Jahrhundert vor Christus hatten Leukipp und Demokrit kleinste Bestandteile alles Seienden angenommen. Die verschiedenen Eigenschaften der Dinge entstünden aus den Atomen, deren Zahl unendlich sei, die in unterschiedlichen geometrischen Formen aufträten, in unentwegter Bewegung seien und selbst nicht in kleinere Teile zerlegt werden könnten. Aus heutiger Sicht war das zweifellos eine geniale Idee, aber gleichzeitig auch nur eine philosophisch untermauerte Spekulation, die sich Jahrtausende später zudem in dieser Form als letztlich unzutreffend erwies.
Das moderne »Uratom« aus dem sich das Universum entwickelt haben soll, war zwar anfangs auch nur eine Idee – doch sie entstand rund 2500 Jahre nach Demokrit auf der Grundlage eines bereits weit fortgeschrittenen Systems konkreter Erkenntnisse über den uns umgebenden Kosmos ebenso wie über die Welt im Kleinsten, den Mikrokosmos. Die Herausforderung aber, aus einem wie auch immer beschaffenen »Uratom« die Lebensgeschichte des Universums abzuleiten, ist trotzdem ein extrem schwieriges Unterfangen geblieben.
Dieses Buch berichtet über den gegenwärtigen Stand unseres Wissens, aber auch über die historischen Hintergründe und unvermeidbaren Irrwege. Verschlungene Pfade mussten gegangen werden, ehe man überhaupt erkannte, dass die Welt im Großen nur zu verstehen ist, wenn man auch über den Mikrokosmos zuverlässige Kenntnisse besitzt. Oft hatte auch der Zufall seine Hand im Spiel ebenso wie die blühende Fantasie von Forschern – eine wichtige Geistesgabe, die wir in den exakten Wissenschaften kaum vermuten. Zugleich wird gerade unter Berücksichtigung der historischen Entwicklungen deutlich, dass all unser Wissen auch Grenzen hat und nicht jeder vermeintliche Fortschritt mit einer weiteren Annäherung an die Wahrheit verbunden ist.
Das faszinierende Ringen um die Suche nach dem Anfang und der Entwicklung unseres Universums wird in diesem Buch nicht chronologisch erzählt, denn es waren ganz unterschiedliche und zum Teil zunächst auch voneinander isolierte Erkenntniswege, die schließlich in das heute so genannte Urknall-Experiment einmündeten. Die Suche nach einem widerspruchsfreien Gesamtbild gleicht einem gewaltigen Puzzle. So hofft der Autor, dieses Abenteuer – auch durch die besondere Erzählweise – vor dem Auge des Lesers neu erstehen zu lassen und dabei ebenso die kritischen Argumente der Skeptiker nicht zu verschweigen, deren Einwände durchaus ernst genommen werden sollten, auch wenn sie nicht immer richtig sein müssen.
Wissenschaftliche Forschung ist ein komplexes Unterfangen. Immer neue technische Hilfsmittel stehen uns zur Verfügung: Riesenteleskope und Raumsonden für die Makrowelt – aber auch »Mikroskope« für die Mikrowelt. Die Mikroskope von heute sind die Teilchenbeschleuniger, allen voran der »Large Hadron Collider« des CERN in Genf, gerne auch die »Weltmaschine« genannt.
Statt weniger Einzelner sind heute Zehntausende Wissenschaftler und Techniker weit verstreut über den gesamten Globus an den Untersuchungen beteiligt und oft lediglich durch Informationsnetzwerke miteinander verbunden. Doch was auch immer sich am Arsenal der Forschungshilfsmittel und den Dimensionen der Forschung geändert hat – der höchste Richterspruch für die Wissenschaft ist dem Experiment vorbehalten. Wer vor dieser Instanz versagt, kann nicht behaupten, die Wahrheit – jene gesuchte Übereinstimmung von Urteilen mit Tatsachen – gefunden zu haben.
Unser gegenwärtiges Weltbild ist immer noch voller Widersprüche und offener Fragen. Man sollte sich dadurch nicht verwirren lassen. Die Wissenschaft ist immer unterwegs und nie am Ziel. Kritiker werden nicht müde, vor neuen Irrwegen zu warnen, oftmals durchaus berechtigt. Deshalb werden wir in diesem Buch auch immer wieder von alternativen Lösungsvorschlägen für viele Probleme lesen und in einem besonderen Kapitel auch erfahren, wo die grundsätzliche Kritik derjenigen ansetzt, die das von den meisten gegenwärtig akzeptierte Modell der Kosmologie oder dasjenige der Elementarteilchenphysik hinterfragen.
Doch auch auf diese Skeptiker trifft zu: Wissenschaft braucht Beweise. Einfache Rezepte für das Finden neuer wissenschaftlicher Wahrheiten sucht man vergebens. Deshalb treibt auch die Fantasie bei der Schaffung neuer Varianten von Weltmodellen derzeit eine Blüte wie nie zuvor. Manche Lösungsvorschläge schließen andere aus und die Vertreter der jeweiligen Auffassungen wetteifern rege um Akzeptanz. Wie soll sich da der Laie durchfinden, wenn es selbst die Fachleute oft nicht vermögen?
Ungewöhnliche Denkansätze gehörten schon immer zum Weg der Wissenschaft. Mehrheitsentscheidungen zählen nicht. So sehen sich die Kritiker gern an ähnlicher Position wie große Vorläufer des heutigen Weltbilds, die seinerzeit auch gegen Mehrheitsmeinungen angetreten sind und dafür stritten und warben. Wie hatte doch schon Alexander von Humboldt 1828 festgestellt:
Entschleierung der Wahrheit ist ohne Divergenz der
Meinungen nicht denkbar 1› Hinweis
.
Dieter B. Herrmann
Experimente im Kosmos?
Experimente dienen meist der Klärung irdischer Fragestellungen. Jedoch lässt sich auch der Himmel nicht nur aus der Ferne beobachten. Experimentieren und Modellieren auf der Erde sind durchaus ebenso Bausteine zur Entschlüsselung des fernen Universums.
© ESO/S. Brunier
Mit einem Laserstrahl wird am Großteleskop VLT ein künstlicher Stern erzeugt, mit dem die Abbildungsleistung der Instrumente verbessert wird.
Jeder weiß, was ein Experiment ist. In einem modernen Chemie-labor zischt und dampft es aus Erlenmeyerkolben und Reagenzgläsern, in den Labors der Physik ermitteln Frauen und Männer in weißen Kitteln mit komplizierten Apparaturen, Spannungsquellen und langen Kabeln das Verhalten von Objekten, die man vielleicht gar nicht sieht. So oder ähnlich geht es in den Werkstätten der Naturwissenschaft zu und jedem Schüler ist heute bekannt, dass man Experimente durchführen muss, um Objekte und ihr Verhalten in Abhängigkeit von unterschiedlichen Einflussgrößen zu studieren. Dabei wird eine genau definierte Situation hergestellt, bei der man bestimmte Parameter messbar verändert, um daraus abzuleiten, welche Folgen dies für das zu untersuchende Objekt hat. Damit der Experimentator sicher sein kann, dass die beobachteten Veränderungen tatsächlich von der variablen Einflussgröße hervorgerufen werden, muss er außerdem sorgfältig darauf achten, dass keine anderen Effekte das Verhalten des zu untersuchenden Objekts mitbestimmen. Solche »Störgrößen« müssen daher zuvor sicher ausgeschaltet werden.
Ein anschauliches Beispiel, wie ein richtig durchgeführtes Experiment zum Sprachrohr der Wahrheit wird, liefert die Beantwortung der Frage: Fallen alle Körper unter der Einwirkung der Schwerkraft gleich schnell oder hängt das Verhalten ihres Falls vielleicht von ihrer Masse ab? Der große griechische Philosoph Aristoteles hatte in der Antike unumwunden erklärt: Leichte Körper fallen langsamer als schwere. Der italienische Naturwissenschaftler Galileo Galilei, der sich im 17. Jahrhundert mit der gleichen Frage beschäftigte, war hingegen von der Massenunabhängigkeit des Fallverhaltens von Körpern überzeugt.
© Nationalmuseum Rom, Palazzo Altemps, Ludovisi-Sammlung/Jastrow
Der griechische Philosoph Aristoteles (384–322 v. Chr.) war einer der einflussreichsten Gelehrten der gesamten Geschichte. Diese Marmorbüste ist eine römische Kopie eines griechischen Originals aus Bronze.
Machen wir nun ein Experiment und lassen eine Eisenkugel und eine Hühnerfeder aus großer Höhe herabfallen, so würde das Ergebnis Aristoteles offensichtlich recht geben. Allerdings ist dies nur so, weil die Versuchsbedingungen nicht sorgfältig genug überlegt waren. Sobald wir den Luftwiderstand ausschalten (also eine entscheidende Störgröße beseitigen, indem wir das Experiment zum Beispiel in einer Vakuumröhre durchführen), würden wir feststellen, dass beide Gegenstände – gleichzeitig und aus gleicher Höhe losgelassen – auch gleichzeitig am Erdboden ankommen. Die aristotelische Behauptung ist also falsch und die richtige Aussage muss lauten: Alle Körper fallen im Schwerefeld der Erde gleich schnell. Dieses Experiment kann jeder Physiker an jedem beliebigen Ort wiederholen und er wird dabei stets dasselbe Ergebnis finden. Naturgesetzliche Erkenntnisse sind also reproduzierbar. Findet ein Forscher ein Resultat, das durch weitere Experimente unter gleichen Bedingungen nicht bestätigt werden kann, so gilt die entsprechende Aussage als wissenschaftlich nicht gesichert.
Besonders in den Naturwissenschaften, aber auch in Technik, Psychologie oder Soziologie verhelfen uns Experimente zu immer neuen Erkenntnissen. Mit ihrer Hilfe können Modelle oder sogar ganze Theorien entwickelt werden. Umgekehrt kann man bestehende Theorien auch durch Experimente auf ihre Richtigkeit überprüfen. Jedoch weisen Beobachtungen nicht auf direktem Wege zu den Theorien. So konnte Galilei zwar mittels Experimenten feststellen, dass alle Körper unabhängig von ihrer Masse gleich schnell fallen, doch eine Theorie, die ihm gesagt hätte, warum dies so ist, ergab sich daraus nicht.
© Justus Sustermans, National Maritime Museum London
Der Philosoph, Mathematiker, Physiker und Astronom Galileo Galilei gilt als einer der Väter der modernen Naturwissenschaft. Er begründete seine physikalischen und astronomischen Entdeckungen auf Experimente oder Beobachtungen.
Erst später wurde verständlich, dass die Masse zwei wesentliche Eigenschaften besitzt: die der Schwere und der Trägheit. Die Erstere entspricht unserem alltäglichen Erleben von Masse, nämlich deren »Gewicht«. Das Gewicht wird durch die Anziehung bewirkt, welche die große Masse der Erde auf die jeweilige Probemasse ausübt (genau genommen ziehen sich die Erde und die Probemasse gegenseitig an). Die andere Eigenschaft, die Trägheit, äußert sich im Bestreben einer Masse, sich Änderungen ihres Bewegungszustands zu widersetzen. Deshalb sind Kräfte erforderlich, um solche Änderungen zu bewirken, und zwar umso größere, je größer die Masse des Körpers ist. Träge und schwere Masse sind zahlenmäßig identisch. Deshalb fallen letztlich alle Körper – tatsächlich gänzlich unabhängig von ihrer Masse – gleich schnell.
Vergleichen wir dazu einen Körper von einem Kilogramm Masse mit einem anderen von drei Kilogramm Masse: Auf die dreimal so große Masse wirkt die Schwerkraft mit dreimal größerem Betrag als auf jene von einem Kilogramm. Da aber auch die Trägheit der schwereren Masse dreimal so groß ist, bedarf es gerade einer dreimal größeren Kraft, um die gleiche Änderung des Bewegungszustands hervorzurufen. Lassen wir also beide Massen im Vakuum aus gleicher Höhe fallen, so erfahren sie durch die Erdanziehung eine gleichmäßig beschleunigte Bewegung, die völlig identisch und unabhängig von der Masse der Körper ist.
Dass die Natur mit Hilfe von Experimenten befragt wird, ist eine Errungenschaft der neuzeitlichen Naturwissenschaft. Erst seit den Tagen von Galileo Galilei und seinen Zeitgenossen kennen wir die experimentelle Methode als eines der wesentlichen Hilfsmittel bei der Erforschung der Natur. Bis dahin stützte man sich auf mehr oder weniger spitzfindige Debatten und die Aussagen von Autoritäten einer längst vergangenen Zeit – der Antike. Diese aber hatten keine Experimente durchgeführt. Das war auch noch nach Meinung der im Mittelalter vorherrschenden scholastischen Schule nicht erforderlich. Theoretische Diskurse auf der Grundlage der Logik des Aristoteles über das Für und Wider bestimmter Behauptungen galten als völlig hinreichend, um zuverlässig festzustellen, ob sie richtig oder falsch waren.
Deshalb ist es auch nicht verwunderlich, dass die ersten Schritte der experimentellen Wissenschaft von den Scholastikern scharf bekämpft wurden, besonders dann, wenn deren Ergebnisse ihren eigenen Schlussfolgerungen zuwiderliefen. Doch die mit Galilei aufkeimende Experimentalwissenschaft machte auf die Dauer der Scholastik den Garaus, wenn auch in einem mühevollen, langwierigen und mehrfach sogar opferreichen Prozess. Heute ist das Experiment ein unentbehrliches methodisches Gut der Wissenschaft. Experimente spielen sogar die Rolle eines zuverlässigen Richters gegenüber jedweder Spekulation oder Hypothese.
Eine Theorie kann noch so ausgeklügelt sein, noch so logisch oder plausibel erscheinen – ein einziges Experiment, das ihr widerspricht, bringt sie unweigerlich zu Fall! Allerdings stehen sich Experiment und Theorie nicht ganz so diametral gegenüber, wie es scheinen mag. Auch die Vorbereitung eines Experiments basiert, ebenso wie seine Deutung und Auswertung, auf theoretischen Prämissen, die oft stillschweigend oder als selbstverständlich vorausgesetzt werden. Man bezeichnet solche Annahmen als Postulate oder Axiome. Das ändert jedoch nichts daran, dass »Ausprobieren« eines Verhaltens etwas anderes ist als Nachdenken über dasselbe Verhalten. Letztlich müssen beide Seiten im Forschungsprozess eine Einheit bilden. Doch wie steht es dabei in der Astronomie?
Die Wissenschaft von den Sternen scheint in dieser Hinsicht schwerwiegend benachteiligt zu sein. Ihr Gegenstand sind Objekte, die sich in großen Distanzen von uns befinden und mit denen die Forscher folglich nicht experimentieren können. Es ist grundsätzlich ausgeschlossen, einen fernen, im kosmischen Raum befindlichen Himmelskörper künstlichen Bedingungen zu unterwerfen und sein Verhalten dann zu studieren. Zumindest während der längsten Zeit ihrer Geschichte kannte die Astronomie keinerlei direkten experimentellen Umgang mit den Objekten ihrer Forschung. Erst seit dem Aufkommen der Raumfahrt ab 1957 hat sich dies für einige wenige Objekte in vergleichsweise geringen Distanzen verändert.
So haben wir inzwischen Mondgestein in irdische Labors geholt oder auf dem Mars Materialproben mit Robotern untersucht und die Venusatmosphäre an Ort und Stelle analysiert, um nur einige von mehreren Beispielen herauszugreifen. Schon der nächste Fixstern allerdings oder gar Tausende Lichtjahre entfernte Gas- und Staubnebel, von fernen Galaxien ganz zu schweigen, entziehen sich auf unabsehbare Zeit – höchstwahrscheinlich sogar für immer – jedwedem experimentellen Zugriff.
Bei genauerer Betrachtung jedoch erweist sich diese Aussage zwar als formal richtig, aber dennoch zugleich als ein Trugschluss. Auch Experimente in irdischen Laboratorien haben sehr viel mit den Vorgängen in den fernsten Gegenden des Universums zu tun, weil die Naturgesetze – nach allem, was wir heute wissen – auch dort gültig sind, wo wir keine Gelegenheit haben, die ihnen ausgesetzten Körper auf direktem Weg zu untersuchen. Es gilt das Postulat der Universalität der Naturgesetze. Zwar kann man nicht streng beweisen, dass es sich tatsächlich so verhält, doch steht dieser Denkansatz mit keiner unserer inzwischen zahlreichen Erkenntnisse in irgendeinem Widerspruch.
© Archiv Dieter B. Herrmann
Das wichtigste Experiment in der Astronomie – jedoch nicht mehr das einzige – ist die scheinbar »passive« Beobachtung weit entfernter Himmelskörper. In früheren Zeiten geschah dies ausschließlich mit dem bloßen Auge, inzwischen werden dazu zahlreiche Großteleskope und Raumsonden eingesetzt. Das Bild zeigt drei der vier Kuppeln des Very Large Telescope (VLT) der Europäischen Südsternwarte (ESO) auf dem Cerro Paranal in Chile. Das VLT ist eine der größten und modernsten Teleskopanlagen der Welt.
Schon in der Antike haben große Denker stillschweigend angenommen, dass die Lehrsätze der Geometrie auch bis zu Mond und Sonne gelten. Andernfalls hätte Aristarch von Samos um 250 vor Christus das Verhältnis von Mond- zu Sonnenentfernung nicht aus Dreiecksberechnungen bestimmen können. Er wusste schließlich, dass die Dreiecksgesetze auf ebenen Flächen hier auf der Erde entdeckt worden waren. Später ging man dazu über, auch physikalische Gesetze vom irdischen Geschehen auf das Weltall zu übertragen. Denken wir nur an die bekannte Anekdote, nach der Isaac Newton im 17. Jahrhundert beim Anblick eines fallenden Apfels auf die Idee gekommen sein soll, in diesem Vorgang den Schlüssel für die Bewegung des Mondes zu suchen.
Gleichgültig, ob es sich bei dieser Erzählung nun um eine Legende handelt oder nicht: Der Kern besteht in der Annahme Newtons, dass die den Massen innewohnende Schwere den Fall der Körper auf der Erde ebenso bestimmt wie die Bewegung der Himmelskörper auf ihren Bahnen. Die Fallgesetze auf der Erde lassen sich experimentell ermitteln. Dies hat Galilei mit seinen Versuchen an schiefen Ebenen getan. Newton übertrug die gefundenen Resultate gedanklich auf die Himmelskörper. Durch die Annahme der Existenz einer Erde und »Himmel« verbindenden einheitlichen Physik konnte er die Bewegung des Mondes behandeln, als wenn dieser Himmelskörper tatsächlich selbst Gegenstand experimenteller Untersuchungen gewesen wäre.
Die Probe aufs Exempel lieferte die von Newton entwickelte Himmelsmechanik, die tatsächlich solche Erscheinungen wie Fall und Wurf auf der Erde und die Bewegung des Mondes auf seiner Bahn um die Erde (und mit dieser um die Sonne) gleichermaßen zutreffend zu beschreiben vermochte. Unser Mond erwies sich dabei als ein Himmelskörper, der ständig »um die Erde herum« fällt. Deshalb wurde auch die Entdeckung des Planeten Neptun im Jahr 1846 als unvergleichlicher Triumph der Wissenschaft gefeiert. Niemand hätte nach diesem Planeten am Ort seiner Entdeckung gesucht, wenn seine Existenz dort nicht zuvor förmlich am Schreibtisch berechnet worden wäre.
Geringfügige Abweichungen der Bewegung des 1781 entdeckten Uranus von seiner vorhergesagten Bahn hatten Mitte des 19. Jahrhunderts unter anderem den französischen Astronomen Urbain Le Verrier auf die Idee gebracht, dass ein bislang noch unbekannter weiterer Planet diese Störungen durch seine Anziehungskraft hervorruft. So gelang es Le Verrier unter Anwendung der Gesetze der Himmelsmechanik, den »Störenfried« rein rechnerisch auszumachen und den Ort zu bestimmen, an dem nach ihm zu suchen wäre. Johann Gottfried Galle fand den Planeten 1846 tatsächlich beim Blick durch ein Teleskop der Sternwarte in Berlin. Das war ein großer Erfolg zugunsten der Annahme, das Newton’sche Gravitationsgesetz sei universell gültig. Es gab damals aber auch Gelehrte, die in den Abweichungen der Uranus-Bewegung einen Hinweis darauf sahen, dass die Gesetze der Mechanik in jenen großen Entfernungen einfach keine Gültigkeit mehr hätten. Doch das war offensichtlich nicht richtig.
Die Annahme einer Himmel und Erde verbindenden Physik war zu Newtons Zeiten noch ein sehr kühner Gedanke. Damit wird ein anderer Grundzug naturwissenschaftlicher Forschung deutlich, dem wir in diesem Buch noch oft begegnen werden: Ohne Ideen und Fantasie geht es nicht. Hätte Newton nicht die Intuition besessen, einen fallenden Apfel mit dem die Erde umlaufenden Mond gedanklich »unter einen Hut« zu bringen, dann hätte er aus Galileis Versuchen auf der schiefen Ebene auch nichts über die Bewegung des Mondes lernen können. In der Antike hatte Aristoteles immerhin gelehrt, dass Himmel und Erde grundsätzlich unterschiedlich seien. Man sprach zwar damals noch nicht von Naturgesetzen, aber es erschien völlig klar, dass es auf der »Welt unter dem Monde«, der sublunaren Welt, gänzlich anders zugeht als in der Welt jenseits davon, der supralunaren Welt. Das konnte man schon daran ersehen, dass auf der Erde alle Bewegungen geradlinig zur (vermeintlichen) Weltmitte oder von ihr weg zur Weltperipherie erfolgten. Die Himmelskörper hingegen bewegten sich auf gekrümmten Bahnen und vor allem niemals zur Weltmitte, denn dann müssten sie ja alle auf die Erde herunterfallen – was sie offensichtlich nicht tun. Die Idee von Newton war nach ihrer durch Beobachtungen erfolgten Bestätigung also gleichsam der naturwissenschaftliche Beweis, dass Aristoteles’ Aussage falsch sein musste.
Niemand hat bis heute eine Materialprobe von der Sonne auf die Erde geholt und sie in einem chemischen Labor untersucht. Dennoch wissen wir, woraus die Sonne besteht. Und auch dies hat unmittelbar etwas mit Experimenten in irdischen Labors zu tun. Dabei handelt es sich um die Zerlegung des weißen Lichts in seine Bestandteile, die Spektralfarben. Man benutzt dazu zum Beispiel Glasprismen, die infolge unterschiedlich starker Brechung der verschiedenen Farben zu einer Auffächerung des weißen Lichts in ein von blau nach rot reichendes Farbband (Spektrum) führen. William Hyde Wollaston, ein britischer Arzt, Chemiker und Physiker, kam nun zu Beginn des 19. Jahrhunderts auf die Idee, einen schmalen Spalt vor die Lichtquelle zu bringen. Auf diese Weise entdeckte er in den Spektren von Flammen, aber auch im Sonnenspektrum, farbige beziehungsweise dunkle Linien. Diese heute nach ihrem Mitentdecker Joseph von Fraunhofer benannten dunklen Linien erwiesen sich fortan als Schlüssel zur »Fernanalyse« von Objekten im Kosmos (vgl. Abb. unten).
Exkurs
Spektroskope
Ein Spektroskop ist ein optisches Gerät, mit dessen Hilfe das Licht einer Quelle in seine verschiedenen Bestandteile (Farben) zerlegt wird. Dazu verwendet man unter anderem Glasprismen, in denen das Licht wellenlängenabhängig gebrochen wird, so dass ein Farbband (Spektrum) des beispielsweise ursprünglich weißen Lichts entsteht. Vor dem Prisma befindet sich ein Spalt, hinter dem Spalt ein Objektiv, mit dem das Licht parallel gerichtet wird. Mittels eines Beobachtungsteleskops wird das Farbband betrachtet. Wenn anstelle visueller Beobachtung eine fotografische Platte oder ein anderes Empfängermedium (zum Beispiel ein CCD-Chip) verwendet wird, spricht man von einem Spektrometer.
Spektroskope sind seit der Mitte des 19. Jahrhunderts unentbehrliche Geräte in Verbindung mit astronomischen Teleskopen. Mit ihrer Hilfe werden Temperatur, chemische Zusammensetzung, physikalische Beschaffenheit und zahlreiche andere Größen eines astronomischen Objekts bestimmt.
© Gunther Schulz/Saperand
Im sichtbaren Bereich des Lichts von blau bis rot zeigt das Sonnenspektrum zahlreiche dunkle Fraunhofer-Linien. Sie geben Aufschluss über die chemische Zusammensetzung der Sonnenatmosphäre. Die Bezeichnung der Linien mit Buchstaben geht auf Joseph von Fraunhofer zurück.
Brachte man beispielsweise Natrium (etwa in Form von Kochsalz, also Natriumchlorid) in eine Gasflamme und beobachtete die dadurch stark gelb gefärbte Flamme im Spektroskop (s. Exkurs oben), so fand man zwei intensive Linien im gelben Bereich des Spektrums. Doch genau an jener Stelle, wo sich diese Doppellinie im Spektrum der Natriumflamme befand, lag im Sonnenspektrum eine dunkle Doppellinie. Sollte das Zufall sein?
Der deutsche Physiker Gustav Robert Kirchhoff und sein Chemiker-Kollege Robert Wilhelm Bunsen wollten es um das Jahr 1860 genauer wissen: Sie brachten vor die Spaltöffnung ihres auf die Sonne gerichteten Spektroskops eine Natriumflamme. Dadurch würde die dunkle Doppellinie im Sonnenspektrum wahrscheinlich etwas heller erscheinen, vermuteten sie. Doch genau das Gegenteil trat ein: Sie wurde noch dunkler als zuvor.
© Archiv Dieter B. Herrmann
Mit diesem Spektroskop, das sich heute im Astrophysikalischen Institut Potsdam befindet, untersuchte Gustav Robert Kirchhoff um die Mitte des 19. Jahrhunderts die Sonne. Gemeinsam mit Robert Wilhelm Bunsen fand er mit der Spektroskopie eine Methode zur astronomischen Fernerkundung von Objekten.
Jetzt war Fantasie gefragt, um dieses scheinbar völlig widersinnige Ergebnis zu interpretieren. Kirchhoff zog aus dem unerwarteten Resultat des Experiments den Schluss, dass die Natriumdämpfe Strahlen derselben Wellenlänge verschlucken (absorbieren), die sie im glühenden Zustand aussenden (emittieren). Damit hatte er zugleich auch eine Erklärung für das Vorkommen der dunklen Linien im Sonnenspektrum: In der äußeren Hülle der Sonne befinden sich Substanzen, die aus dem vom Sonneninneren kommenden Licht genau jene Wellenlängen verschlucken, die sie sonst aussenden würden. Also musste es in der gasförmigen Hülle der Sonne auch Natrium geben. Außerdem wies die Sonnenhülle offenbar eine niedrigere Temperatur auf als das Sonneninnere.
Das waren Erkenntnisse von höchst weitreichender Bedeutung. Mit diesem Experiment und seiner Deutung hatten Kirchhoff und Bunsen die Spektralanalyse begründet. Chemische Analyse durch Spectralbeobachtungen hieß denn auch der Titel ihrer bahnbrechenden Veröffentlichung aus dem Jahr 1861. Den beiden Forschern war etwas ganz Außerordentliches gelungen: Man konnte jetzt »per Distanz« chemische Analysen durchführen und Aussagen über die chemische Zusammensetzung von Objekten machen, die sich weit draußen und für die Forscher unzugänglich im Kosmos befanden.
© Archiv Dieter B. Herrmann
Zur Identifikation von Linien in Sternspektren zieht man unter anderem auch Vergleichsspektren heran, die in irdischen Labors unter definierten Bedingungen gewonnen wurden. Ein Beispiel hierfür bietet der Atlas der Restlinien, den die Vatikan-Sternwarte 1959 in Rom herausgebracht hat. Diese vergleichende Methode beruht auf der Annahme, dass Materie im Weltraum nicht grundsätzlich anders beschaffen ist als auf der Erde.
Verlässlich konnten die Ergebnisse solcher Analysen aber nur sein, wenn »da draußen« tatsächlich dieselben Naturgesetze gelten wie hier auf der Erde, wenn sich das Natrium im Weltall nicht von jenem unterscheidet, das Bunsen und Kirchhoff im Labor zur Färbung ihrer Flammen benutzt hatten. Der deutsche Astrophysiker Karl Friedrich Zöllner hat diesen Zusammenhang wenige Jahre später unmissverständlich formuliert, indem er klarstellte, die gesamte Astrophysik beruhe auf der Tatsache, »dass die allgemeinen und wesentlichen Eigenschaften der Materie im unendlichen Raum überall dieselben seien«2› Hinweis
. In der Tat: Wäre dies nicht der Fall, könnten wir mit den Beobachtungsdaten über kosmische Körper nichts anfangen.
Der astronomische Beobachter erweckt zwar im Gegensatz zum praktisch arbeitenden Physiker oder Chemiker im Labor immer nur den Eindruck eines passiven Zuschauers. Doch in Wirklichkeit extrahiert er aus seinen gezielt vorbereiteten Beobachtungen Erkenntnisse, die auf Experimenten in irdischen Labors beruhen. Experimentelle Resultate stellen gleichsam den Brückenschlag zu jenen Objekten und Phänomenen in unüberwindbaren Distanzen dar, die sich dem direkten Zugriff entziehen. Diese Erkenntnis wird in der gesamten neueren Geschichte der Astronomie sichtbar und drängt sich immer wieder auf, wenn wir deren Resultate nicht nur oberflächlich betrachten.
Doch das ist nur die eine Seite der Medaille. Es geht auch umgekehrt. Man muss keineswegs das Objekt selbst zur Verfügung haben, um etwas darüber in Erfahrung zu bringen. Und was wir über die Körper des Weltalls bereits wissen oder annehmen, können wir gegebenenfalls in irdischen Experimenten »nachstellen« und somit überprüfen. Die Beobachtungen und deren Interpretationen können uns durchaus veranlassen, von den jeweiligen Objekten Modelle zu konstruieren, die den Naturobjekten in wesentlichen Eigenschaften gleichen oder ihnen wenigstens nahekommen, mit ihnen also vergleichbar sind. Ein solches Modell kann dann unterschiedlichen Bedingungen unterworfen werden und schon haben wir ein »astronomisches Experiment« durchgeführt.
Der Astronom Joseph Meurers hat sich um die Mitte des 20. Jahrhunderts die Mühe gemacht, in der vorhandenen Literatur nach solchen »indirekten Experimenten« zu suchen, und in seinem Buch Astronomische Experimente eine Fülle von Beispielen aufgeführt, in denen auf diese Weise wichtige Erkenntnisse über astronomische Objekte gewonnen wurden. Die ersten solcher Versuche gehen bis in das letzte Viertel des 19. Jahrhunderts zurück und umfassen alle Bereiche der Astronomie von der Entstehung kosmischer Systeme bis zur Physik der Sonne, von der Herkunft der Mondformationen bis zur Deutung von Kometenspektren. Dabei handelte es sich keineswegs nur um eine zeitweilige Modeerscheinung. Im Gegenteil: Heutzutage gibt es eine Fülle von experimentellen Zugängen zu teilweise komplizierten kosmischen Phänomenen, mit deren Hilfe zahlreiche Mechanismen aufgeklärt oder besser verständlich gemacht werden konnten.
© H. Kochan, DLR
In den 1980er- und 1990er-Jahren führte man im Deutschen Zentrum für Luft- und Raumfahrt (DLR) in Köln Laboruntersuchungen an simulierten Kometenoberflächen durch. Dazu wurde kometenartiges Material künstlich erzeugt und in einer speziellen Kammer kontrolliert Weltraumbedingungen und der Einstrahlung einer ebenfalls künstlichen Sonne ausgesetzt. Mit diesen Experimenten wollte man die Ergebnisse der Raumsondenflüge zum Kometen Halley besser verstehen und weitere Kometenmissionen vorbereiten.
Gerade die immer weiter verbesserten experimentellen Möglichkeiten der Physik gestatten eine zunehmende Ausweitung von Modellbildungen und deren Studium unter kontrollierten Bedingungen. So wissen wir beispielsweise heute, dass die Planeten unseres Sonnensystems – und offenbar auch die Planeten anderer Sonnensysteme – aus kleineren Körpern hervorgingen, den sogenannten Planetesimalen. Diese bewegten sich in einer rotierenden flachen Staubscheibe um die im Zentrum der Scheibe entstehende Sonne. Doch wie bildeten sich die Planetesimale in einer »präplanetaren Scheibe« heraus, die anfänglich nur aus mikroskopisch kleinen Staubteilchen und aus Gas bestand? Konnten diese winzigen Partikel tatsächlich zu kilometergroßen Brocken verklumpen?
Darüber lässt sich trefflich spekulieren, zumal bei den entsprechenden Vorgängen vielerlei Einflüsse gleichzeitig eine Rolle spielen. Aus diesem Grund haben sich Wissenschaftler der Universitäten Braunschweig und Münster sowie vom Max-Planck-Institut für Astronomie in Heidelberg entschlossen, das Verhalten von Staubpartikeln unter dem Einfluss von Gas und Strahlung experimentell zu untersuchen. Dabei wollen die Forscher herausfinden, wie es zur Gerinnung von Staubteilchen zu Staubklumpen und schließlich zur Ausbildung größerer Brocken kommt. Aggregate aus Milliarden winziger Quarzkügelchen werden zu diesem Zweck mit typischen Geschwindigkeiten von bis zu zehn Metern pro Sekunde aufeinandergeschossen, um so die Haftungseigenschaften der Klumpen zu studieren. Ebenso wird der Frage nachgegangen, in welcher Weise sich die Zusammensetzung der Klumpen bei höheren Temperaturen verändert. Aus diesen Versuchen erhofft man sich auch Resultate, die sich bei der Beobachtung präplanetarer Scheiben mit astronomischen Teleskopen überprüfen lassen.
Selbst ganze Sternsysteme werden heute mit Hilfe leistungsfähiger Computer modelliert. Den Computern wird alles übermittelt, was wir über das Verhalten und die Eigenschaften der Objekte wissen, und dann können die Rechner herausfinden, was in der Realität Jahrmilliarden in Anspruch nimmt. So studiert man beispielsweise im Leibniz-Institut für Astrophysik in Potsdam den Entstehungsprozess von Galaxien, indem die Bahnbewegungen der Sterne und ihre chemische Zusammensetzung ermittelt werden. Die dazu erforderlichen Daten werden durch aufwendige Messungen in internationaler Zusammenarbeit gesammelt, neuerdings mit dem besten bislang zur Verfügung stehenden astrometrischen Satelliten Gaia, der am 19. Dezember 2013 gestartet wurde. Computersimulationen zeigen dann die chemische und kinematische Evolution, die mit tatsächlich gemessenen Werten verglichen werden können – man betreibt damit also eine Art »galaktischer Archäologie«. Beim Studium von Galaxien zeigte sich auf diese Weise eindeutig, dass die heute beobachteten Galaxienformen das Resultat von Sternsystemkollisionen sind, die sich in der Vergangenheit abgespielt und die Morphologie der Ursprungsobjekte dramatisch verändert haben.
© NASA, ESA und das Hubble-Heritage-Team (STScI/AURA)
Zwei wechselwirkende Galaxien mit dem Namen Arp 273 im Sternbild Andromeda, rund dreihundert Millionen Lichtjahre von uns entfernt. Die kleinere Galaxie (unten), auf die wir nahezu von der Seite blicken, hat die größere vermutlich in »jüngerer« Vergangenheit durchquert. Mit Computersimulationen kann man Galaxienkollisionen heutzutage recht gut nachvollziehen.
So greifen Experimente, Beobachtungen, Berechnungen, Simulationen und Interpretationen auf vielfältige Weise ineinander – und dies in einer Wissenschaft, die man oft als den Prototyp einer Disziplin bezeichnet hat, in der man sich mit allen möglichen Mitteln der Wahrheitsfindung nähert, nur nicht durch Experimente. Aber auch Gedankenexperimente sind mitunter auch von derart zwingender Logik, dass man sich deren praktische Ausführung eigentlich ersparen könnte. Beispielsweise bewies Galilei ausschließlich durch logische Überlegung, dass schwere Körper nicht schneller fallen als leichte. In Galileis Unterredungen und mathematischen Demonstrationen über zwei neue Wissenszweige, die Mechanik und die Fallgesetze betreffend (1638) fragt Salviati (alias Galilei) seinen geistigen Widersacher Simplicio: »Wenn wir zwei Körper haben, deren natürliche Geschwindigkeit verschieden ist, so ist es klar, wenn wir den langsameren mit dem geschwinderen vereinigen, dieser letztere von jenem verzögert werden müsste, und der langsamere müsste vom schnelleren beschleunigt werden. Seid Ihr hierin mit mir einverstanden?« Worauf Simplicio erklärt: »Mir scheint diese Konsequenz völlig richtig.« Nun aber argumentiert Salviati:
Aber wenn dies richtig ist und wenn es wahr wäre, dass ein großer Stein sich zum Beispiel mit acht Maß Geschwindigkeit bewegt und ein kleinerer Stein mit vier Maß, so würden beide vereinigt eine Geschwindigkeit von weniger als acht Maß haben müssen; aber die beiden Steine zusammen sind doch größer, als jener größere Stein war, der acht Maß Geschwindigkeit hatte; mithin würde sich nun der größere langsamer bewegen als der kleinere, was gegen Eure Voraussetzung wäre. Ihr seht also, wie aus der Annahme, ein größerer Körper habe eine größere Geschwindigkeit als ein kleinerer Körper, ich Euch folgern lassen konnte, dass ein größerer Körper sich langsamer bewege als ein kleinerer […]. Lasst uns also feststellen, dass große und kleine Körper […] mit gleicher Geschwindigkeit sich bewegen 3› Hinweis
.
Gegenwärtig schicken wir uns an, das größte, aufwendigste und tiefgründigste, aber auch teuerste Experiment anzustellen, das jemals zur Untersuchung des Kosmos unternommen wurde. Es geht um nichts Geringeres als den »Urknall« selbst, aus dem das gesamte Universum einst hervorgegangen ist. Er kann zwar nicht nachgeahmt werden, doch will man Zustände im noch sehr jungen Universum imitieren, die dann zu einem besseren Verständnis seiner Lebensgeschichte führen sollen. Darüber wird in diesem Buch berichtet werden.
Um zu verstehen, was es mit diesem Experiment auf sich hat und was wir von ihm erwarten dürfen, müssen wir jedoch zunächst tief in die Vergangenheit eintauchen, sowohl in jene der Forschungsgeschichte als auch in jene des Weltalls. Bei unserem Exkurs wird sich zeigen, dass hochkomplexe moderne Experimente aus einer unübersehbaren Menge von wissenschaftlichen Disziplinen gespeist werden, die ursprünglich scheinbar wenig miteinander gemein hatten. Wir werden deshalb von zahlreichen wissenschaftlichen und technischen Disziplinen erfahren und viele Ergebnisse kennenlernen, die von der Wissenschaft im Lauf ihrer Geschichte zusammengetragen wurden. Manchmal wird der Leser sich fragen, was all diese Dinge miteinander zu tun haben. Wenn wir aber schließlich auf die wissenschaftlichen Zielsetzungen des Large Hadron Collider (LHC) zu sprechen kommen, der größten Beschleunigeranlage auf der ganzen Welt, wird sich zeigen, dass all die vielfältigen Details in das größte Experiment aller Zeiten einmünden, in den Versuch, dem Kosmos mit der »Weltmaschine« weitere Geheimnisse zu entlocken.
Vom Makrokosmos zum Mikrokosmos
Wenn wir den gestirnten Himmel betrachten, sehen wir Tausende Lichtpunkte. Worum handelt es sich dabei wohl? Lange rätselte man und erst spät hat man erkannt, dass man tief in die Welt der kleinsten Teilchen eintauchen muss, um die Sterne zu verstehen.
© CERN
Noch viel elementarere Teilchen als Atome müssen untersucht werden, um den Kosmos zu begreifen – hier das berühmte Higgs-Teilchen.
Schon in den frühesten Zeiten menschlichen Nachdenkens über die Natur stellte man sich die Frage, worin eigentlich das Wesen dieser ausdehnungslosen leuchtenden Gebilde am Nachthimmel bestehe – freilich ohne die geringste Aussicht auf eine verlässliche Antwort. Dennoch war man um Deutungen nicht verlegen. Religiöse Vorstellungen, mythische Ideen und Mutmaßungen, aber auch Alltagserfahrungen mischten sich zu einem vorwissenschaftlichen »Gedankengemälde«, das mit dem, was wir heute wissenschaftliche Erkenntnis nennen, noch nichts zu tun hatte.
Für die Ägypter waren die Sterne göttliche Wesen, die zugleich den Wohnsitz der Toten darstellten. Im alten Mesopotamien, dem Ursprungsland der abendländischen Wissenschaft, betrachtete man die Sterne als Lampen, die an der gewaltigen Himmelskuppel befestigt waren. Der große griechische Philosoph und Sokrates-Schüler Platon hielt die Sterne ebenfalls für göttlich. Zwar sollten sie aus den vier Elementen Wasser, Erde, Feuer und Luft bestehen, aber zusätzlich den belebenden Urstoff der göttlichen Seele enthalten, der allem Irdischen vorenthalten sei. Die Pythagoreer wiederum, Anhänger der Ideen des Pythagoras von Samos, die die Zahl als das Wesen aller Dinge ansahen, sprachen den Sternen bereits eine kugelförmige Gestalt zu. Aber auch dies war keineswegs eine Erkenntnis im heutigen Sinn, sondern lediglich eine Folge ihrer mathematischen Ästhetik, bei denen die Kugel als vollkommenster aller geometrischen Körper galt.
Bereits in der Antike finden wir jedoch auch Ansätze von dem, was wir heute rationale Betrachtung nennen – so etwa bei Thales von Milet, der die Sterne zu den meteorologischen Phänomenen zählte, sie also mit Regentropfen, Schneeflocken und Blitzen in eine Schublade steckte. Auch die griechischen Atomisten, die davon ausgingen, dass die Welt aus kleinsten Teilchen besteht, verzichteten auf mythische Deutungen. Für sie waren die Sterne glühende Felsmassen in großen Entfernungen – immerhin eine aus heutiger Sicht keineswegs absurde Spekulation. Die Palette der Deutungsangebote war also groß, von der Wirklichkeit waren sie jedoch alle sehr weit entfernt.
Dessen ungeachtet hatten die Ergebnisse der antiken Denkbemühungen ein weit in die Zukunft reichendes Haltbarkeitsdatum. Was damals formuliert wurde, galt fast zwei Jahrtausende hindurch als unumstößliche Wahrheit. Die Ursache dafür hing mit dem Niedergang der antiken Kultur einerseits und mit der allgemeinen gesellschaftlichen Entwicklung andererseits zusammen. Hätten nicht die Araber nach dem Zerfall der griechischen Hochkultur deren Schätze bewahrt (und in gewissem Umfang auch weiterentwickelt), wüssten wir heute wahrscheinlich kaum noch etwas von jenen ersten großen Wissenschaftsentwürfen der Vergangenheit.
In der europäischen Renaissance vollzog sich jedoch förmlich eine Wiedergeburt der antiken Wissenskultur, die auf den großen gesellschaftlichen Umbrüchen jener Epoche fußte. Sie nahm von Italien ihren Ausgang, wo die Städtebildung am weitesten fortgeschritten war, und die Kontakte zum arabischen Raum, aber auch zu den einstigen Stätten antiker Hochkultur besonders eng waren. Die Bewegung zur »Wiedergeburt« (der Antike) ergriff schließlich ganz Europa. Eine bedeutende Rolle dürfte in diesem Prozess die Herausbildung von Handwerk und Handel gespielt haben. Beides bewirkte ein neu erwachendes und sehr praktisches Interesse an Wissenschaft. Da sich der Handel zunehmend auf dem Wasserweg vollzog – die Entdeckung neuer Kontinente und ihrer Schätze eingeschlossen –, gewann auch die Orientierung auf See eine zuvor nie dagewesene Bedeutung. Dies führte auf direktem Weg zu einer neuen Aufwertung der Himmelskunde.
Gelehrte wie Nikolaus Kopernikus, Galileo Galilei und Johannes Kepler waren die geistigen Leuchttürme dieser Entwicklung. Man wagte völlig neue Denkansätze von unerhörter Kühnheit und die Protagonisten dieser Entwicklung verstrickten sich dabei oft in lebensgefährliche Konflikte, weil das überkommene Weltbild längst zum Bestandteil der Ideologie des herrschenden Klerus geworden war. In diesem Zusammenhang kamen auch neue Spekulationen über die Welt der Sterne auf.
© Archiv Dieter B. Herrmann
Nikolaus Kopernikus (1473–1543) stellte statt der Erde die Sonne ins Zentrum der Welt. Ihm verdanken wir den großen Umbruch vom geozentrischen zum heliozentrischen Weltbild.
Johannes Kepler vertrat beispielsweise die Ansicht, dass nicht alle Sterne gleich weit vom Weltzentrum entfernt sein müssten, wie dies seit der Antike angenommen worden war. Noch ungestümer waren die Visionen des Dominikanermönchs Giordano Bruno: Er sah in den Sternen sogar weit entfernte Sonnen! Doch auch das waren noch keine Ergebnisse wissenschaftlicher Untersuchung, ungeachtet der Tatsache, dass wir Giordano Bruno aus heutiger Sicht Recht geben müssen. Zudem hätte auch Bruno nicht sagen können, was denn die Sonne und somit auch die Sterne eigentlich sind. Es dauerte vielmehr noch dreieinhalb Jahrhunderte, ehe sich auf diesem Gebiet ein grundlegender Wandel anbahnte.
Weitere Erkenntnisse wurden gewonnen, die sich später zu einem neuen Gesamtbild zusammenführen ließen. Dazu zählen unter anderem die naturphilosophischen Spekulationen des jungen Immanuel Kant, der 1755 seine bahnbrechende Schrift Allgemeine Naturgeschichte und Theorie des Himmels veröffentlicht hatte. Darin hatte Kant erstmals den bemerkenswerten Versuch gewagt, Sterne nicht als von Anbeginn an vorhandene, sondern als entstandene Objekte zu beschreiben, die sich aus fein verteilter Materie durch Zusammenballung gebildet haben, unsere Sonne eingeschlossen.
Aus der Hypothese des Kopernikus, dass sich die Erde um die Sonne bewege, ergab sich die Prognose, dass die Sterne als Widerspiegelung dieser Erdbewegung am Himmel winzige periodische Bewegungen ausführen müssten (vgl. Abb. unten). Doch alle Versuche, diesen Effekt nachzuweisen, scheiterten vorerst. Das lag an den unvorstellbar großen Entfernungen der Sterne, die extrem winzige Ortsveränderungen zur Folge hatten, welche im Rahmen der Messgenauigkeit seinerzeit nicht nachweisbar waren. Mit der Verbesserung der astronomischen Instrumente änderte sich dies jedoch, so dass ab 1838 erstmals durch exakte Messungen (Friedrich Wilhelm Bessel, Wilhelm Struve, Thomas Henderson) die ersten Sternentfernungen bekannt wurden. Zugleich wurde damit auch die Vermutung bestätigt, dass sich die Sterne in ganz unterschiedlichen Tiefen des Raums und nicht an einer einzigen Sphäre befinden.
© Gunther Schulz/Archiv Kosmos-Verlag
So wurden die ersten Sternentfernungen bestimmt: Man beobachtete die Position eines Sterns vor dem Himmelshintergrund zu zwei Zeitpunkten, die sechs Monate auseinanderlagen. Infolge der Erdbewegung verändert sich innerhalb dieser Zeit der scheinbare Ort des Sterns. Aus der halben gemessenen Winkelverschiebung (der sogenannten Parallaxe) lässt sich die Entfernung des Sterns in Einheiten der Entfernung Erde–Sonne ermitteln.
Dass die Lichtpunkte am Himmel etwas unserer Sonne sehr Ähnliches seien, galt um diese Zeit bereits als Allgemeingut. Die Natur der Sonne selbst aber wurde erst durch die Spektralanalyse aufgeklärt. Nach Gustav R. Kirchhoffs und Robert W. Bunsens Deutung der dunklen Linien im Sonnenspektrum war klar: Die Sonne ist eine leuchtende Kugel, die in ihrem Inneren weitaus höhere Temperaturen aufweist als in jenen oberflächennahen Schichten, deren Strahlung wir empfangen. Sonst würden sich jene dunklen Fraunhofer’schen Linien nicht erklären lassen. Doch man fand die dunklen Linien auch in den Spektren weit entfernter Fixsterne. Die Sonne war offenkundig der Prototyp eines Fixsterns, nur viel näher an der Erde als die anderen Sterne.
Schon die ersten, noch unzuverlässigen Messungen der Oberflächentemperatur der Sonne ließen erkennen, dass diese gigantische Kugel gasförmig sein musste. Die Temperaturen wurden aus dem Energiebetrag erschlossen, der pro Flächen- und Zeiteinheit auf die Erdoberfläche trifft, der sogenannten Solarkonstanten. Zwar wusste man noch nicht, welcher genaue Zusammenhang zwischen der Temperatur eines strahlenden Körpers und seiner Energieausstrahlung besteht, dennoch lieferten sämtliche einigermaßen plausiblen Annahmen derartig hohe Temperaturen, dass man von einem gasförmigen Aggregatzustand der Sonne – und somit auch der Sterne – ausgehen musste.
Diese Erkenntnisse riefen nun auch jene Physiker auf den Plan, die sich mit dem Verhalten von Gasen beschäftigt hatten. Schon im 17. Jahrhundert waren die Zusammenhänge zwischen Druck, Volumen, Temperatur und der Masse von Gasen untersucht worden. Als Ergebnis experimenteller Studien war es gelungen, Zustandsgleichungen zu formulieren, mit deren Hilfe sich das Verhalten von Gasen beschreiben ließ. Wenn die Sonne ein gasförmiger Körper war, dann musste es auch möglich sein, durch Anwendung der in irdischen Laboratorien gewonnenen Erkenntnisse über die Gasgesetze etwas über die Sonne in Erfahrung zu bringen.
Ein Musterbeispiel für diese Vorgehensweise lieferte der englische Physiker Jonathan Homer Lane. Er veröffentlichte im Jahr 1870 eine Abhandlung, in der er die theoretische Temperatur der Sonne unter Anwendung der Gasgesetze untersuchte. Eine der wichtigsten neuen Erkenntnisse von Lane lautete, dass es sich bei der Sonne um einen Gaskörper im mechanischen Gleichgewicht handelt. Die Sonne bricht demnach unter der Last ihrer Masse nicht zusammen, weil in ihrem Inneren eine enorm hohe Temperatur herrscht. Andererseits fliegt sie aber trotz dieser Temperatur nicht auseinander, weil der Schweredruck ihrer Masse dem Gasdruck entgegenwirkt und beide sich genau die Waage halten. Diese Aussage konnte man natürlich in gleichem Maße auf die Sterne beziehen.
Bei der Betrachtung der Spektren von Sternen fand man rasch heraus, dass sich diese im Einzelnen vom Spektrum unserer Sonne durchaus unterscheiden. Schon der äußere Anblick der Spektren war von Stern zu Stern unterschiedlich (vgl. Abb. unten). Der italienische Astrophysiker Angelo Secchi schlug eine erste Klassifikation der Sternspektren vor und knüpfte dabei unmittelbar an die schon mit dem bloßen Auge erkennbaren Farben der Sterne an. Er unterschied zunächst drei Haupttypen: Sterne von der Art unserer Sonne (gelbe Sterne), solche vom Typ des hellsten Fixsterns Sirius (blaue Sterne) und die Beteigeuze-Sterne (rote Sterne), benannt nach dem rechten Schulterstern des Sternbilds Orion. Später erweiterte er sein Klassifikationssystem auf fünf Prototypen.
© Gunther Schulz/Archiv Dieter B. Herrmann
Angelo Secchi war der Erste, der die Sternspektren in verschiedene Klassen einteilte, die sich unter anderem durch ihren Linienreichtum unterschieden. Als Prototypen wählte er in einer erweiterten Form seines ursprünglichen Klassifikationssystems die Sterne Spica (Jungfrau), Sirius (Großer Hund), Sonne, Arktur (Bootes) und Beteigeuze (Orion).
Schon damals vermutete man, dass die unterschiedlichen Spektren etwas mit den Oberflächentemperaturen der Sterne zu tun hätten. Die Farbfolge der Sterne von Rot über Gelb zu weißlich Blau hielt man aufgrund von Erfahrungen in irdischen Laboratorien für eine Temperatursequenz von niedrigeren zu immer höheren Temperaturen. In jeder Schmiede konnte man schließlich beobachten, wie sich das Eisen mit immer höheren Temperaturen von Rot über Gelb nach weißlich Blau verfärbte.