Schattenblick →INFOPOOL →NATURWISSENSCHAFTEN → ASTRONOMIE

BERICHT/063: 50 Jahre Astronomie mit "Sterne und Weltraum" - Wir haben es erlebt! (Sterne und Weltraum)


Sterne und Weltraum 4/12 - April 2012
Zeitschrift für Astronomie

Wir haben es erlebt!
Ein halbes Jahrhundert Astronomie mit »Sterne und Weltraum« (1962-2012)

Von Dietrich Lemke



Die großen Fragen des Univerums enträtseln: Noch nie in ihrer Geschichte kam die Menschheit diesem Ziel so rasch näher wie in den letzten fünf Jahrzehnten. Die Leser von »Sterne und Weltraum« haben diese stürmische Entwicklung miterlebt. Wir blättern durch fünfzig Jahrgänge unserer Zeitschrift und erinnern dabei an überraschende Entdeckungen, immer noch Ungelöstes und an neue Mysterien der Astronomie.


Die vergangenen 50 Jahre werden oft als ein goldenes Zeitalter der Astronomie bezeichnet. Physiker und elektronische Rechenmaschinen zogen in die Sternwarten ein, und die klassische Fotoplatte wurde durch optoelektronische Kameras (CCDs) abgelöst. Bodengebundene Radio- und Infrarotteleskope sowie Weltraumobservatorien für das gesamte Spektrum vom Infraroten bis zur Gammastrahlung haben uns eine Fülle von Entdeckungen beschert: Quasare, Pulsare, Gravitationslinsen, Sternentstehungsgebiete, Braune Zwerge, kosmische Filamente und weite Leerräume, Exoplaneten, Dunkle Materie. Der Weltraum wurde zunehmend zum Laboratorium, in dem sich Materie unter ex remsten Bedint gungen erforschen lässt: Das physikalische Wissen von den Elementarteilchen bis zu kosmischen Strukturen ist gewaltig angewachsen.

Ein Blick in die ersten Jahrgänge von »Sterne und Weltraum« zeigt ein Weltbild, das in großen Zügen auch heute noch richtig ist. Die Rotverschiebung in den Spektren ferner Galaxien war bereits drei Jahrzehnte zuvor entdeckt worden. Aus der daraus gefolgerten Expansion des Universums von einem ursprünglichen kompakten Ausgangspunkt ergab sich ein Weltalter von mehr als zehn Milliarden Jahren. Dazu passten die neuen radioaktiven Altersbestimmungen für die Erde und für Meteoriten, die für das Sonnensystem einen Wert von 4,5 Milliarden Jahren ergaben. Die Energieerzeugung der Sterne durch Kernfusion war theoretisch verstanden, und aus der Leuchtkraft der verschieden schweren Sterne ließ sich ihre sehr unterschiedliche Lebenserwartung vorhersagen: Die leuchtkräftigsten leben nur kurz, sie mussten gerade erst zu leuchten begonnen haben, und sie wiesen uns somit den Weg zu Sternentstehungsgebieten.

Wie durch das Zusammenballen dichter interstellarer Gas- und Staubwolken Sterne entstehen und Planeten sich in den sie umgebenden Staubscheiben bilden, war theoretisch durchdacht, wenngleich noch nicht beobachtet. Viele Sterne sollten Planeten haben, weswegen sich die Suche nach kosmischen Nachbarn lohnte. Der unvorstellbar große Abstand der Sterne voneinander, verglichen mit ihrem Durchmesser, war gut bestimmbar - deshalb würden Sterne nie zusammenstoßen. Anders die aus rund 100 Milliarden Sternen aufgebauten Galaxien, dort konnte schon in Abständen vom Zehnfachen ihres Durchmessers eine Nachbargalaxie gefunden werden. Und natürlich bestand der gesamte Kosmos nach damaligem Wissen aus gewöhnlicher Materie.


Astrophysik aus der Rechenmaschine

Nahezu zeitgleich mit der Gründung von »Sterne und Weltraum« hielten elektronische Rechenmaschinen Einzug in die Sternwarten und astronomischen Institute. Den Lesern brachte SuW diese Neuerungen aktuell in drei Aufsätzen der Astrophysiker Rudolf Kippenhahn und Alfred Weigert nahe (siehe SuW 8-9/1964, S. 173, 7-8/1965, S. 148, und 8-9/1966, S. 182). In den ersten beiden beschrieben die Autoren die Geschichte eines Delta-Cephei-Sterns und begannen: »Heutzutage kann uns eine elektronische Rechenmaschine, in der alle Gesetze der Physik des Sterninnern in Form eines Programms gespeichert sind, den Lebenslauf eines Sterns vorrechnen.« Tatsächlich fing ihr sieben Sonnenmassen schwerer Modellstern nach 10 Stunden Rechenzeit auf der IBM 7090 - das entsprach 40 Millionen Jahren - in der Realität - an zu pulsieren. Sogar die Perioden-Leuchtkraft Beziehung der Cepheiden kam heraus, eine der wichtigsten Methoden zur Entfernungsbestimmung im Kosmos.

Im folgenden Artikel erläuterten Kippenhahn und Weigert sogar die Entwicklung eines künstlichen Sternhaufens. Für dessen 190 Mitglieder unterschiedlicher Masse hatten sie die Lebensläufe im Rechner simuliert. Das Ergebnis waren Hertzsprung-Russell-Diagramme für verschiedene berechnete Alter, die mit den H-R-Diagrammen natürlicher Sternhaufen übereinstimmten: Damit ließ sich deren Alter bestimmen! In den 1980er Jahren bekamen dann viele Astronomen ihren eigenen »Atari« und konnten selbst nachrechnen.

Heutzutage sind PCs vom Arbeitsplatz eines Astronomen oder Astrophysikers nicht mehr wegzudenken. Zudem stehen den Wissenschaftlern Großrechenanlagen wie etwa Computercluster zur Verfügung. Mit diesen neuen Möglichkeiten lässt sich nun sogar die Strukturbildung im Universum modellieren, wie die Millenniumsimulation eindrücklich zeigt (siehe S. 47 der Druckaugabe sowie SuW 11/2006, S. 30).

Aber auch für die moderne Datenanalyse sind solche enormen Rechenkapazitäten unabdinglich. Denn seit der CCD-Chip die klassische Fotoplatte abgelöst hat, steigen die an den Großteleskopen anfallenden Datenmengen stetig. Ohne die neue Rechenkraft wären sie nicht zu bewältigen. Und wo die Forscher selbst dann noch an ihre Grenzen stoßen, laden sie an der Wissenschaft interessierte Laien ein, um bei der Datenauswertung mitzuwirken: In Projekten für verteiltes Rechnen wie Galaxy Zoo (SuW 4/2010 S. 50), Moon Zoo (SuW 7/2010 S. 101) oder Einstein@Home (SuW 12/2010 S. 78) können private PC-Besitzer brachliegende Rechenzeit ihrer Heimcomputer für die Datenanalyse zur Verfügung stellen. Und nicht zuletzt benötigen sämtliche Beobachtungen mit Weltraumteleskopen große rechnergestützte Bodenobservatorien.


Ein Vorhang geht auf

Ebenfalls vor etwa 50 Jahren wurden neue Fenster ins All geöffnet. Im Jahr 1957 war mit Sputnik der erste Erdsatellit gestartet, in schneller Folge erkundeten bald dutzende Sonden den erdnahen Weltraum. Beginnend in den 1960er Jahren erschlossen zunächst astronomische Ballon- und dann Satellitenteleskope die vom Erdboden aus unzugänglichen Bereiche von den Gamma- bis zu den Infrarotstrahlen.

In jenen Jahren entschieden sich viele Studenten der Physik, ihre Diplom- oder Doktorarbeiten in astronomischen Instituten durchzuführen: Dort war die Forschungsfront! Vorher war die Astronomie hierzulande weitgehend mit der Bestimmung der Positionen, Entfernungen und Bewegungen der Himmelskörper (Astrometrie) gleichgesetzt worden. In Deutschland war vielerorts seit Jahrzehnten die Verbindung von Physik und Astronomie vernachlässigt worden, bedingt vor allem durch einen Mangel an Beobachtungsinstrumenten. Zwei Weltkriege hatten uns weit zurückfallen lassen. Nur wenige Gebiete wurden damals international beachtet, so die theoretische Astrophysik, die Sonnenphysik und die Arbeiten am damaligen Max-Planck-Institut für Physik und Astrophysik um Ludwig Biermann.

Mit der Gründung von modern ausgestatteten Max-PlanckInstituten (MPI) gewann Deutschland in den 1960er Jahren wieder Anschluss an die internationale Forschung. Am spanischen Calar Alto entstand eine vom MPI für Astronomie geleitete Sternwarte, und in späteren Jahren war dieses Institut an der Entwicklung des Infrarotsatelliten ISO beteiligt. Das MPI für Radioastronomie in Bonn baute das 100-Meter-Radioteleskop in Effelsberg. Und an der Enwicklung von Weltraumobservatorien wie dem Röntgensatelliten ROSAT war das MPI für extraterrestrische Physik in Garching federführend beteiligt.

Im Lauf der letzten Jahrzehnte wurden weitere Weltraumobservatorien gestartet, die nun sämtliche Wellenlängenbereiche abdecken. Damit lassen sich inzwischen die verschiedenen astronomischen Objekte mit den Methoden der so entstandenen Multiwellenlängenastronomie studieren.

Und auch die bodengebundenen Observatorien haben sich weiterentwickelt: So ist etwa der Durchmesser der Radiointerferometer seit den späten 1960er Jahren gewaltig angewachsen und nur noch durch den Durchmesser der Erde begrenzt. Diese interkontinentalen Very Long Baseline Interferometer (VLBI), gelegentlich ergänzt durch eine Radioantenne auf einem Satelliten, können ferne Quasare oder kosmische Maserquellen in Sternentstehungsgebieten mit einer Schärfe abbilden, wie das in keinem anderen Spektralbereich möglich ist.


Quasare

Als die Astronomen in den 1950er Jahren den Himmel mit neuen Radioteleskopen durchmusterten, stießen sie auf eine Reihe kompakter Radioquellen. Allerdings war die Positionsbestimmung im Radiowellenbereich damals noch recht ungenau, und so ließen sich diese »Radiosterne« nur schwer mit optischen Gegenstücken identifizieren.

Das änderte sich schlagartig, als im Jahr 1962 der Mond eine der Quellen, 3C 273 (Quelle 273 im 3. Radioquellenkatalog von Cambridge), bedeckte, und zeitgleich dazu auch die zugehörige optische Quelle. Diese erwies sich als ein im Ultravioletten und Blauen leuchtendes punktförmiges Objekt 13. Größenklasse mit einem kleinen Ausläufer. Im Folgejahr erhielt Maarten Schmidt mit dem 5-Meter-Teleskop auf dem Mount Palomar ein Spektrum der rätselhaften Quelle. Die Lyman-alpha-Linie (121 Nanometer im Ultravioletten), die sich später als charakteristisch für derartige Objekte herausstellen sollte, wies eine Rotverschiebung von z = 0,158 auf. Bei kosmologischer Deutung der Rotverschiebung entsprach dies einer Fluchtgeschwindigkeit von 47.000 Kilometern pro Sekunde. Das bedeutete wiederum, dass es sich um ein sehr fernes Objekt handeln musste. Aus der scheinbaren Helligkeit von immerhin 13 mag folgte eine Leuchtkraft von rund 1014 Sonnenleuchtkräften. Es war also hundert Mal heller als eine gewöhnliche Galaxie! (siehe SuW 8-9/1966, S. 200, sowie SuW 7/1967, S. 163)

Diese aufregende Entdeckung löste weltweit eine Suche nach solchen »quasistellaren Radioquellen« oder Quasaren aus, und tatsächlich zeigten weitere Quellen aus dem 3C-Katalog eine ähnliche Natur. Parallel dazu begann die Suche nach extrem blauen sternartigen Objekten im optischen Bereich. Diese Durchmusterungen waren ergiebig, allerdings leuchteten nicht alle der Quellen mit einem charakteristischen optischen Quasarspektrum auch im Radiobereich. Und als zehn Jahre nach der ersten Entdeckung ein Quasar mit der Rekordrotverschiebung von z = 3,4 gefunden wurde, war klar, dass weitere Quellen mit noch höheren Rotverschiebungen nicht im Blauen, sondern im Roten zu suchen seien.

Eine Überraschung war auch, dass einige Quasare mit eng dabeistehenden Galaxien über Lichtbrücken verbunden schienen, aber beide Objekte unterschiedliche Rotverschiebungen zeigten. So konnten sich einige Astronomen damals nicht mit der ausschließlich kosmologischen Deutung der hohen Rotverschiebungen anfreunden. Daher diskutierten sie selbst zehn Jahre nach der Entdeckung immer noch zwei weitere Deutungsmöglichkeiten: Die Objekte seien aus der Milchstraße und anderen Galaxien mit relativistischen Geschwindigkeiten ausgestoßen worden. Und: Es seien kollabierende Objekte mit großen Gravitationsrotverschiebungen (siehe SuW 1/1974, S. 18).

Schwarzes Loch im Zentrum
Wie langbelichtete Fotoplatten mit den größten Teleskopen zeigten, schienen die Quasare von schwachen Nebeln umgeben. Offensichtlich waren diese merkwürdigen Objekte die hellen Kerne von Galaxien. Noch rätselhafter war, dass sie ihre Helligkeit innerhalb weniger Tage um Zehntel Größenklassen änderten. Da sich keine physikalische Wirkung schneller als mit Lichtgeschwindigkeit ausbreiten kann, bedeutete dies, dass die enorme Helligkeit einem sehr kleinen Raumbereich mit einem Durchmesser von Lichttagen entspringen musste.

Im Jahr 1974 entwickelten Roger Blandford und Martin Rees ein Modell, dem zufolge diese Galaxienkerne massereiche Schwarze Löcher enthalten, in die interstellares Gas hineinspiralt. Dabei erhitzt sich die Materie durch Reibung so stark, dass sie enorme Energiemengen bei Wellenlängen vom Radio- bis zum Röntgenbereich abstrahlt.

Seit einem halben Jahrhundert sind Quasare nun intensiv erforscht und inzwischen über das gesamte Spektrum bis in den hochenergetischen Bereich beobachtet. Dies führte zu der Erkenntnis, dass diese Objekte eine wesentliche Rolle bei der Galaxienentwicklung spielen. Dabei bilden Quasare eine besonders leuchtkräftige Klasse von so genannten aktiven Galaxien. Insgesamt sind heute mehr als 200.000 Quasare bekannt, die meisten davon verteilen sich um eine Rotverschiebung von z = 2. Da sie offensichtlich zu einem bestimmten kosmischen Zeitalter gehäuft auftreten, wird dieses auch als die Quasarära bezeichnet.

Das Quasarleuchten schaltet sich an, wenn die Materiezufuhr auf die Akkretionsscheibe um ein zentrales Schwarzes Loch erhöht ist. Dies kann in einer bestimmten Phase der Galaxienentwicklung der Fall sein, wenn in der Umgebung des galaktischen Schwarzen Lochs Materie im Übermaß vorhanden ist oder auch, wenn zwei Galaxien miteinander verschmelzen.

Während der meiste Teil der Materie ins Schwarze Loch strömt, wird ein geringer Anteil im Magnetfeld des Quasars, das senkrecht zur Akkretionsscheibe ausgerichtet ist, beschleunigt. Auf diese Weise entstehen die leuchtkräftigen Jets. Sie erklären übrigens auch die zwischen einigen Quasaren und deren scheinbaren Nachbargalaxien schon früh beobachteten Lichtbrücken. Eine physische Verbindung zwischen beiden Objekten lässt sich damit ausschließen.

Im Laufe von typischerweise 100 Millionen Jahren verringert sich der Materiezustrom zum Schwarzen Loch, und die Leuchtkraft des Quasars beginnt zu sinken. Am Ende dieses Prozesses steht wieder eine Galaxie gewöhnlicher Leuchtkraft. In einer solchen ruhigen Phase befindet sich unsere Milchstraße gerade. Ob sie schon einmal das Stadium eines Quasars durchlaufen hat, ist ungewiss, aber sie kann nach dem Verschmelzen mit der Andromedagalaxie in rund zwei Milliarden Jahren noch (einmal) zu einem werden. Denn auch das Zentrum unserer Milchstraße beherbergt ein extrem massereiches Schwarzes Loch, doch derzeit hungert es (siehe SuW 3/2005, S. 28).

Die frühesten Quasare
Gegenwärtig werden mit großen Durchmusterungen die jüngsten Quasare im Kosmos gesucht. Für mehrere Jahre waren das Objekte um z = 6 aus dem Sloan-Survey. Allerdings ist dieser auf den optischen Spektralbereich beschränkt, und bei noch weiter entfernten Quasaren ist die Lyman-alpha-Linie über das sichtbare Spektrum hinaus verschoben.

Im nahen Infrarot (1000 Nanometer) wurde 2011 ein Quasar mit z = 7,08 und einer Leuchtkraft von 5·1013 Sonnenleuchtkräften gefunden (siehe Grafik S. 42 oben der Druckausgabe). Diese Entdeckung ist ein Glücksfall, denn bei so hohen Rotverschiebungen sind am gesamten Himmel nur etwa hundert solcher Objekte zu erwarten. Deshalb wird man mit einem Infrarotteleskop im Weltraum weite Teile des Himmels absuchen müssen: In Europa wird dafür gegenwärtig die EUCLID-Mission vorbereitet. Aber bereits die Quasare um eine Rotverschiebung von sieben geben ein großes Rätsel auf: Wie konnten sich nur rund 0,7 Milliarden Jahre nach dem Urknall im ganz jungen Kosmos so große Schwarze Löcher mit mehreren Milliarden Sonnenmassen gebildet haben?


Pulsare

Während sich die Wissenschaftler noch intensiv mit den Quasaren beschäftigten, gelang ihnen nur wenige Jahre nach deren Entdeckung ein weiterer sensationeller Fund am Radiohimmel. Im Jahr 1967 versuchten Astronomen am britischen Mullard Radio Observatory mit einem 470 Meter langen Radiointerferometer, bestehend aus 2000 Dipolen, den Durchmesser dieser kompakten Objekte anhand von Radioszintillationen zu bestimmen. Dabei entdeckten sie eine schnell pulsierende Quelle. Die Pulse wiederholten sich mit großer Genauigkeit alle 1,3372795 Sekunden: Ein bis dahin unbekanntes Phänomen!

Nachdem sie einen zunächst vermuteten terrestrischen Ursprung des getakteten Signals wie etwa Radar oder Raumsonden ausgeschlossen hatten, konnten Antony Hewish und seine Doktorandin Jocelyn Bell eine Himmelsposition im Sternbild Füchslein angeben. Allerdings war die Messung für eine eventuelle optische Identifizierung noch zu ungenau. In der Veröffentlichung ihrer Entdeckung vermuteten Hewish und seine Koautoren als Quelle die radialen Pulsationen eines Weißen Zwergs oder Neutronensterns.

Kosmische Leuchttürme
Sofort nahmen Astronomen in aller Welt Folgebeobachtungen auf. Als sie bald weitere ähnliche Quellen fanden, wurde schnell klar, dass die nun »Pulsare« genannten Objekte schnell rotierende Neutronensterne waren. Die vornehmlich an den Polen des starken Magnetfelds dieser kompakten Objekte entstehende Synchrotronstrahlung verlässt die Neutronensterne stark gebündelt. Da Magnetfeld- und Rotationsachse aber in der Regel gegeneinander geneigt sind, können die Lichtkegel bei geeigneter Orientierung die Erde wie ein Leuchtturmsignal überstreichen.

Schon bald wurde auch die »Sternleiche« der Supernova-Explosion vom Jahre 1054 als Pulsar im Krebsnebel M1 als optisches »Blinklicht« (alle 33 Millisekunden) im hochpolarisierten Synchrotronlicht entdeckt. Inzwischen sind rund 2000 Pulsare gefunden worden. Darunter sind viele dank Beobachtungen mit den Satelliten ROSAT und Fermi auch als Röntgen- und einige gar als Gammapulsare bekannt.

Zwei Nobelpreise für die Pulsarforschung
Da in unmittelbarer Umgebung dieser kompakten Objekte extremste Bedingungen herrschen, wie sie sich auf der Erde nicht herstellen lassen, eignen sich Pulsare als hervorragende Laboratorien etwa zum Test der allgemeinen Relativitätstheorie. So lieferte ein von Russell Hulse und Joseph Taylor beobachtetes Doppelpulsarsystem bereits den indirekten Nachweis für die Existenz von Gravitationswellen. Dies trug den beiden Astrophysikern 1993 den Nobelpreis ein.

Doch bleibt die Entdeckung der Pulsare den Wissenschaftlern auch noch durch einen anderen Nobelpreis in Erinnerung: Den nicht vergebenen an die Entdeckerin Jocelyn Bell. Sie hat damals als Doktorandin das Interferometer mit aufgebaut und die Messungen durchgeführt. Dazu gehörte die tägliche akribisch genaue Durchsicht der rund 30 Meter langen Papierstreifen mit aufgezeichneten Signalen. In der Datenflut wurde sie auf die kleinen regelmäßigen Signale einer Quelle aufmerksam. Den Nobelpreis erhielt ihr Doktorvater Hewish gemeinsam mit seinem Kollegen Martin Ryle für »seine entscheidende Rolle bei der Entdeckung der Pulsare.«


Kosmologie

Wie die Welt im Großen beschaffen ist, und wie sie sich zum heutigen Anblick entwickelt hat, darüber gab es vor 50 Jahren zwar Modellvorstellungen, aber nur wenige aussagekräftige Beobachtungen. Eine erste Entscheidung zwischen dem ursprünglich statischen Universum Albert Einsteins und den expandierenden Modelluniversen des russischen Physikers Alexander Friedmann (1922) fiel bereits 1929. Damals hatte Edwin Hubble herausgefunden, dass die Rotverschiebung von Galaxien mit zunehmender Entfernung steigt. Aber gab es wirklich einen Anfangspunkt der Expansion vor ungefähr 10 Milliarden Jahren, wie der belgische Physiker Georges Lemaître vermutete? (siehe SuW 6/2007, S. 36) Und wie erfolgte die Ausdehnung: Expansion für alle Zeiten? Verlangsamt sie sich? Kann sie zum Kollaps umkehren? Auch das Modell eines »Steady-State-Universums« des britischen Astrophysikers Fred Hoyle stand 1962 noch zur Debatte: Demnach entstünde zu allen Zeiten gerade so viel neue Materie, dass trotz der Expansion der Anblick der Welt stets gleich bliebe. Die Frage nach dem Anfang stellt sich bei diesem Modell nicht. Vor diesem Hintergrund gab es vor 50 Jahren viel Raum für Spekulationen über Aufbau und Entwicklung des Universums.

Kosmische Hintergrundstrahlung
Das änderte sich schlagartig mit der Entdeckung des Mikrowellenhintergrunds im Jahr 1965. Arno Penzias und Robert Wilson von den Bell Telephone Laboratories fanden bei Messungen, die sie mit einer Antenne zur Kommunikation mit Nachrichtensatelliten durchführten, ein erhöhtes Rauschsignal. Es lag bei einer Wellenlänge von sieben Zentimetern und kam gleichförmig aus allen Himmelsrichtungen zu jeder Tages- und Jahreszeit. Daher schien ein astronomischer Ursprung zunächst ausgeschlossen.

Doch dann brachte ein Zufall Penzias und Wilson in Verbindung mit einer Forschergruppe um Robert H. Dicke an der Princeton University. Die Wissenschaftler wollten gerade nach einer Reststrahlung suchen, die von der vermuteten explosionsartigen Entstehung des Universums übrig geblieben sein sollte. In der Tat passten Rauschmessung der einen und theoretische Vorhersage der anderen Gruppe zusammen. Offenbar war damit der langwellige Ast des hochrotverschobenen Überrests der Urknallstrahlung gefunden. Dieser Spektralast war ein Teil der Planck-Kurve eines Schwarzen Körpers mit einer Temperatur von drei Kelvin. Ganz überzeugt von dieser Erklärung schienen Penzias und Wilson jedoch nicht zu sein. Sie betitelten ihren im »Astrophysical Journal« erschienenen Aufsatz »Erhöhte Antennentemperatur bei 4080 Megahertz«, während die danebenstehende Veröffentlichung aus Princeton (Dicke, Peebles, Roll, Wilkinson) von »Kosmischer Schwarzkörperstrahlung« spricht. Noch in den 1970er Jahren zweifelten einige prominente Astronomen an diesem Beweis der Urknallhypothese: Es war ja lediglich der vom Erdboden aus zugängliche langwellige Anteil der erwarteten Schwarzkörperstrahlung gemessen worden.

Mit dem im Jahre 1989 gestarteten NASA-Satelliten Cosmic Background Explorer (COBE) verschwanden die Zweifel endgültig: COBE erfasste das gesamte Spektrum des kosmischen Mikrowellenhintergrunds. Es entsprach exakt einer Schwarzkörpertemperatur von 2,73 Kelvin - wie theoretisch vorhergesagt. Des Weiteren spürte die Sonde kleine räumliche Temperatur fluktuationen am Himmel auf, die aus Dichteunterschieden im frühen Universum folgen und die spätere Strukturbildung mit der Entstehung von Galaxien und Galaxienhaufen bedingten.

Um diese Anisotropien mit um Größenordnungen besserer Winkelauflösung (etwa 0,2 Grad statt 7 Grad bei COBE) und viel höherer Empfindlichkeit zu untersuchen, startete die NASA 2001 die Wilkinson Microwave Anisotropy Probe (WMAP). Nach neun Jahren Missionszeit lieferte der Satellit wunderbare hochaufgelöste Bilder des ganz jungen Universums im Alter von rund 400.000 Jahren nach dem Urknall. Darin betrugen die Temperaturabweichungen vom mittleren 2,73-Kelvin-Hintergrund nur winzige 60 Mikrokelvin.

Dunkle Energie
Dank der Messungen von COBE und WMAP kennen wir die wichtigsten Größen unseres kosmologischen Modells: das Alter des Universums mit 13,73 Milliarden Jahren, die Hubble-Konstante zu 71 Kilometer pro Sekunde und pro Megaparsec, sowie die Anteile von gewöhnlicher Materie (Baryonen) zu 4,5 Prozent, Dunkler Materie zu 22,7 Prozent und Dunkler Energie zu 72,8 Prozent. Letztere liefert die noch nicht vollständig verstandene Erklärung für die beschleunigte Expansion des Universums. Mit diesen Beobachtungsergebnissen hat sich die Kosmologie innerhalb der letzten 50 Jahre von einem teilweise spekulativ-philosophischen Feld in ein durch Präzisionsmessungen gestütztes Wissenschaftsgebiet weiterentwickelt.

Diese Fortschritte wurden durch Physik-Nobelpreise geehrt: 1978 für Arno Penzias und Robert Wilson sowie 2006 für John Mather und George Smoot (COBE). Und im vergangenen Jahr (2011) gab es noch einen weiteren für eine kosmologische Entdeckung: Saul Perlmutter, Brian Schmidt und Adam Riess hatten seit den 1990er Jahren weit entfernte Supernovae vom Typ Ia beobachtet und damit weitere Indizien für die beschleunigte Expansion gefunden (siehe Kasten unten sowie SuW 12/2012, S. 28 und S. 33.)


Supernovae als Entfernungsmesser
Supernovae vom Typ Ia sind die am weitesten sichtbaren und geeichten Standardkerzen im Universum. Der Grund liegt im Explosionsmechanismus: Wenn ein Weißer Zwerg, der sich in einem Doppelsternsystem befindet, von seinem Partner durch Überströmen von Materie Masse gewinnt, erreicht er beim Anwachsen auf gerade das 1,4-Fache der Sonnenmasse einen instabilen Zustand, und er wird durch eine thermonukleare Reaktion zerrissen. Diese Explosion erfolgt stets mit annähernd der gleichen absoluten Helligkeit. Anhand der von der Erde aus gemessenen scheinbaren Helligkeit lässt sich dann die Entfernung der Supernova ermitteln. Die Distanz der Supernova 1995K wies erstmals auf eine beschleunigte Expansion des Kosmos hin.
Abbildungen der Originalpublikation im Schattenblick nicht veröffentlicht:
7. März 1995 / 30. März 1995 / Differenzbild


Supernovae dieser Art explodieren im Vergleich zu den anderen Typen stets nahezu mit derselben absoluten Helligkeit. Geringe Unterschiede darin lassen sich aus dem Verlauf der Lichtkurve und der Farbentwicklung korrigieren. Zwar sind sie mit einem Ereignis pro Jahrtausend in einer Galaxie vergleichsweise selten, aber sie lassen sich auf Grund ihrer spektralen Eigenschaften (keine Wasserstofflinie, aber Siliziumabsorption) leicht von den übrigen Typen unterscheiden. Daher eignet sich der Typ Ia besonders gut zur kosmischen Entfernungsbestimmung.

Je weniger hell eine Supernova dieses Typs nun von der Erde aus erscheint, desto weiter entfernt hat sie sich ereignet. Wegen der Expansion des Universums ist das Licht zudem rotverschoben, und zwar umso stärker, je größer die Entfernung der Supernova ist. Aus dem Vergleich der gemessenen scheinbaren Helligkeit und der Rotverschiebung von Supernovae über sehr große Entfernungen lässt sich die Expansionsgeschichte des Universums ableiten. Auf Grund der Materieverteilung im Kosmos und der bremsenden Wirkung der Gravitation hatten die Wissenschaftler angenommen, dass die Expansionsrate mit der Zeit abnehmen würde. Die Messungen ergaben jedoch für weit entfernte Supernovae geringere Helligkeiten als erwartet. Aus dieser Abweichung folgte eine überraschende Erkenntnis: Der Kosmos expandiert heute schneller als in der Vergangenheit, sogar schneller, als es für einen leeren Kosmos zu erwarten wäre! Hinter dieser beschleunigten Expansion vermuten die Astronomen ein rätselhaftes Phänomen, das sie Dunkle Energie oder Vakuumenergie nennen.

Die Theoretiker sind nun vor eine neue Frage gestellt: Wie kann die Vakumenergie die Oberhand über die Materie und die Gravitation im Kosmos gewinnen? Laborexperimente scheinen nicht möglich, da sich die Dunkle Energie nicht zu antigravitativer Materie umformen lässt. Einen der Entdecker, Saul Perlmutter, erinnert die derzeitige Situation an jene, als man versuchte, das ptolemäische Weltbild mit Hilfe von Epizykeln zu retten. Im heutigen Fall wäre die Rettung die Dunkle Energie. Viele weiterführende Experimente sind gegenwärtig in Vorbereitung, um diesem kosmischen Rätsel auf die Spur zu kommen: Beobachtungen an noch ferneren Supernovae, an Galaxienhaufen, am Mikrowellenhintergrund und an Gravitationslinsen. Sie sollten zu einer neuen Theorie führen, die das Kleinste mit dem Größten verbindet.

Dunkle Materie
Ähnlich schwierig gestaltet sich die Erklärung der Dunklen Materie. Mit dieser Größe versuchte Fritz Zwicky bereits 1933 zu erklären, wie der Coma-Galaxienhaufen mit seinen schnell herumschwirrenden Objekten stabil gehalten wird. Dafür reichte die leuchtende Materie der vielen Galaxien bei Weitem nicht aus. Breite Anerkennung fand das Konzept der Dunklen Materie aber erst mit einer Aufsehen erregenden Veröffentlichung von Vera Rubin und Mitarbeitern im Jahr 1980. Das Team hatte bei 21 untersuchten Spiralgalaxien flache Rotationskurven entdeckt: Die Umlaufgeschwindigkeit der Sterne um das Zentrum der Galaxie nahm nach außen nicht ab, wie es nach dem 3. keplerschen Gesetz zu erwarten war. Daraus folgte, dass sich viel unsichtbare Masse in einem dunklen Halo der Galaxie befinden musste. Weiter erhärtete sich das Konzept der Dunklen Materie dann durch die Beobachtung von Gravitationslinsen.

Seit Jahren laufen viele Experimente zum Nachweis der Dunklen Materie im Labor und im Weltraum. Dabei suchen die Physiker nach Weakly Interacting Massive Particles (WIMPs). In Untergrundlaboratorien mit gekühlten Detektoren, betrieben bei einer Temperatur von nur 0,1 Grad über dem absoluten Nullpunkt, versuchen sie, einen winzigen Temperaturanstieg nach Durchgang eines WIMPs nachzuweisen. Alternativ dazu stehen Flüssig-Xenon-Zähler zur Verfügung, in denen ein WIMP einen Szintillationblitz auslösen würde. Auch der indirekte Nachweis mit Gammasatelliten wie etwa Fermi wird versucht: Bei der Begegnung zweier WIMPs könnte Vernichtungsstrahlung in Form von Gammastrahlung entstehen. Bisher ist mit keinem der zahlreichen Experimente ein überzeugender Nachweis der vermuteten Teilchen gelungen, so dass auch alternative Vorschläge zum Konzept der Dunklen Materie nicht verstummen wollen.


Das Dunkle Zeitalter

Zwischen dem von COBE und WMAP gelieferten »Babybild« des Universums im Alter von 400 Jahren und den ersten mit dem Weltraumteleskop Hubble beobachteten Galaxien, die nur eine Milliarde Jahre später entstanden sind, müssen sich irgendwann die ersten Sterne und kleinen Galaxien gebildet haben. Dieses frühe »Dunkle Zeitalter« ist bisher der direkten Beobachtung nicht zugänglich. Allerdings lässt sich seit der Verfügbarkeit von Computern diese Entwicklungsphase des Kosmos von den ersten Filamenten an bis zu immer größeren Galaxien und Galaxienhaufen mit zunehmend verbesserten Annahmen simulieren. Waren es in den 1970er Jahren nur 300 Massepunkte, mit denen die Entstehung eines Galaxienhaufens im Rechner nachvollzogen werden konnte, so werden heute mit Supercomputern 100 Milliarden Massepunkte zur Wechselwirkung gebracht. Dabei entstehen beeindruckende Filme, die uns farbcodiert die Entstehung des heutigen Universums von den ersten Materiefilamenten im ganz jungen Kosmos an vor Augen führen, wie das Beispiel der Millenniumsimulation eindrücklich zeigt (siehe Bild rechts sowie SuW 11/2006, S. 30).

Aber es sind noch viele Fragen offen, an denen intensiv gearbeitet wird: Wie etwa sind wenige hundert Millionen Jahre nach dem Urknall, als es nur Wasserstoff- und Heliumgas, aber keine schweren Elemente gab, die ersten Sterne der Population III entstanden? Computersimulationen zeigen, dass sie mit 40 bis 100 Sonnenmassen sehr massereich gewesen sein müssen und möglicherweise als Mehrfachsternsysteme entstanden sind. Nach relativ kurzer Lebensdauer müssen sie als Supernovae explodiert sein und dabei den Kosmos zunehmend mit schweren Elementen angereichert haben. Sind die heute beobachteten Gammastrahlungsausbrüche bei sehr hohen Rotverschiebungen vielleicht solche Supernovae im ganz jungen Kosmos? Verschiedene Theoriegruppen kommen trotz beständiger Verfeinerungen der Simulationen, bei denen sie Rückkopplungseffekte von Sternentstehung und Sternexplosionen mit einbeziehen, noch zu unterschiedlichen Ergebnissen.

Die Hoffnung ist, dass das derzeit im Bau befindliche James Webb Space Telescope (JWST) mit seinem 6,5-Meter-Spiegel durch tatsächliche Beobachtung der ersten leuchtenden Objekte im Kosmos diese Simulationen bestätigen wird. Mit mehr als 100 Stunden Integrationszeit an einer Himmelsposition werden sich voraussichtlich die kleinen Galaxien mit etwa einer Million Sterne bei Rotverschiebungen von z = 10 bis 15 aufspüren lassen: ein erster Blick ins Dunkle Zeitalter des Universums. Doch der Start des JWST ist - vorausgesetzt, die weitere Finanzierung des Projekts scheitert nicht - erst für das Jahr 2018 vorgesehen.


Einblicke mit dem Weltraumteleskop Hubble

Theoretisch war der Mechanismus der Stern- und Planetenentstehung weitgehend verstanden: Demnach kollabieren interstellare Wolken, die vornehmlich aus Gas und etwas Staub bestehen, unter ihrer eigenen Schwerkraft. Dabei werden sie immer dichter und heißer und beginnen zu rotieren. Bevor schließlich im Zentrum der fertige Stern zu strahlen beginnt, schleudert er Materie in Form von Jets und Winden in seine Umgebung. Solche Ausbrüche hatte man bereits in den 1970er Jahren beobachtet. Der eigentliche Stern ist in dieser Entwicklungsstufe allerdings noch von seiner (durch Rotation abgeflachten) Geburtswolke verborgen, aus der sich in einem späteren Stadium möglicherweise Planeten bilden würden.

Erst im Jahr 1995 gelang mit dem Weltraumteleskop Hubble ein detaillierter Blick in eine Sternentstehungsregion. Der Orion ebel offenbarte rund 700 junge Sterne in den untern schiedlichsten Entwicklungsphasen. Erstmals waren dort auch protoplanetare Scheiben zu erkennen, die sich dunkel vor ihren hellen Muttersternen abhoben. Inzwischen sind solche Systeme auch mit Infrarotteleskopen wie Spitzer gut erforscht, und wir wissen, dass sie mehrere Mikrometer große Staubkörnchen enthalten, die immer weiter anwachsen müssen, bis Planeten wie die Erde entstanden sind.

Mit Langzeitbeobachtungen einzelner Himmelsausschnitte gab das Hubble-Teleskop den Blick auf unzählige Galaxien frei, die für bisherige Beobachtungen zu leuchtschwach waren. Allein das Hubble Deep Field enthält 3000 Galaxien unterschiedlichster Entfernungen und Struktur: ein wahrer Schatz zum Studium der Galaxienentwicklung und der kosmischen Evolution.

Neues über der Materieverteilung im Kosmos lernen wir nicht zuletzt durch die Hubble-Bilder von Gravitationslinsen: So lassen sich einerseits ferne Quasare beobachten, deren Licht von einer auf der Sichtlinie gelegenen Galaxie gebündelt und verstärkt wird. Andererseits erhalten wir aus der Lichtablenkung Aufschluss über die Struktur der Gravitationslinse. Auf diese Weise lässt sich nicht nur die leuchtende, sondern auch die Dunkle Materie aufspüren.


Der staubverhüllte Kosmos

Eines der neuen Arbeitsgebiete, das weitgehend von Physikern erschlossen wurde, ist die Infrarotastronomie. Bis zum Beginn der 1960er Jahre hatten nur sehr wenige Astronomen die Helligkeitsmessungen an Sternen mit Hilfe von trockeneisgekühlten Bleisulfid-Detektoren auf die atmosphärischen Fenster im nahen Infraroten bei Wellenlängen von 1,6 und 2,2 Mikrometer ausgedehnt. Das Sternenlicht wird in langwelligen Bändern weniger durch interstellaren Staub geschwächt. Ab Mitte der 1960er Jahre standen dann endlich Empfänger für die atmosphärischen Fenster im thermischen Infrarot bei Wellenlängen von 3 und 5 beziehungsweise 10 und 21 Mikrometer zur Verfügung.

In schneller Folge wurden faszinierende Entdeckungen gemeldet, denn der Himmel war in diesem breiten Wellenlängenbereich praktisch unerforscht. Die Entwicklung der Infrarotastronomie folgte dabei weit gehend jener der Radioastronomie im vorangegangenen Jahrzehnt, auch dort waren Physiker und Ingenieure und nicht Astronomen die treibenden Kräfte gewesen. Tatsächlich entpuppten sich viele der damals entdeckten Radioquellen auch als helle Infrarotquellen. Dazu zählten beispielsweise H II-Regionen wie der Orion-Nebel. Dort ionisieren heiße, junge Sterne das Gas ihrer Geburtswolke, und dieses sendet dann Radiokontinuumsstrahlung aus. Die Infrarotmessungen an diesen oft durch interstellaren Staub verdeckten Quellen brachten eine große Überraschung: In dem neuen Spektralbereich waren die Objekte noch hundertmal heller als im Optischen und im Radiobereich. Offensichtlich wurde der größte Teil der Sternstrahlung von dem kleinen Staubanteil von rund einem Prozent in der Geburtswolke absorbiert. Der Staub erwärmt sich dabei auf etwa 150 Kelvin und strahlt intensiv bei Wellenlängen zwischen 10 und 20 Mikrometern.

Schließlich wurden extrem helle Infrarotgalaxien entdeckt, die in dem neuen Bereich mehr Energie abstrahlen als in allen anderen Spektralbereichen zusammen. Oft waren diese Galaxien schon im Radiobereich auffällig und bald auch in dem ebenfalls seit den 1960er Jahren durch Raketenteleskope zugänglichen Röntgenbereich. Mit Teleskopen in Flugzeugen und auf Ballonen wurde bald der ferne Infrarotbereich erschlossen, und 1983 startete der erste mit flüssigem Helium gekühlte Infrarotsatellit IRAS. Mit ihm ließ sich erstmals der Himmel bei Wellenlängen von 12 bis 100 Mikrometern durchmustern. Dabei wurde eine Viertelmillion Quellen gefunden und katalogisiert. Zu den zahlreichen Entdeckungen dieser Mission gehörten die ultraleuchtkräftigen Infrarotgalaxien, kurz ULIRGs, die bis zu 100-mal mehr Energie abstrahlen als die Milchstraße. Folgebeobachtungen vom Boden enthüllten sie oft als Galaxienpaare, in denen die gegenseitige gravitative Wechselwirkung viele Stern entstehungsprozesse, sogenannte Starbursts, ausgelöst hatte. Die neu entstandenen heißen Sterne erwärmen den Staub ihrer Umgebung auf Temperaturen von 30 bis 150 Kelvin, so dass er im fernen Infraroten extrem hell leuchtet.

Wichtige Ergänzungen zu den Infrarotbeobachtungen von Sternentstehungsgebieten liefert inzwischen die Millimeterwellenastronomie mit ihren präzisen Parabolantennen. Sie erlaubt die Massebestimmung für die kalten Molekülwolkenkomplexe, die Geburtsstätten neuer Sterne, die vor allem aus molekularem Wasserstoff (H2) bestehen. Zwar hat kalter Wasserstoff keine geeigneten Infrarot- oder Millimeterlinien, aber ein bekanntes Mischungsverhältnis mit dem im Millimeterbereich messbaren Kohlenmonoxid (CO). Der so bestimmte Gesamtgasanteil übertrifft die Staubmasse üblicherweise um das Hundertfache.

Dem astronomischen Fortschritt gingen stets technische Neuerungen voran. Dies zeigt sich beispielhaft an der Infrarotastronomie: Anfangs musste die im Infraroten sichtbare thermische Eigenstrahlung der optischen Teleskope am Boden ausgeschaltet werden, indem man zeitweise alle schwarzen (gut strahlenden) Blenden entfernte. Außerdem versuchte man, das hohe Vordergrundsignal der warmen Atmosphäre durch differenzielle Messungen mit einem Sekundärspiegelchopper zu überwinden.

Hatten die seit den 1970er Jahren entwickelten Infrarotkameras anfangs nur ein einziges Bildelement, so stieg die Zahl der Pixel inzwischen auf Millionen an. Bedeutenden Fortschritt brachten die Satellitenteleskope, denn nur im Weltraum, wo keine Umgebungsluft vorhanden ist, die ausfrieren könnte, ließ sich ein Teleskop mit flüssigem Helium auf 3 Kelvin abkühlen. Damit stieg die Empfindlichkeit um Größenordnungen. Seit der zehnmonatigen Himmelsdurchsuchung mit IRAS vor rund 30 Jahren wurden mehrere Infrarot-Weltraumteleskope gestartet: ISO, Akari, Spitzer, WISE und Herschel. Sie haben mit Missionszeiten von jeweils einigen Jahren eine Fülle von Entdeckungen gebracht: Vom im Kosmos allgegenwärtigen Wasser, von Protosternen in Dunkelwolken bis hin zu protoplanetaren Scheiben um junge Sterne, deren Kondensation zu Planeten man in Sternhaufen zunehmenden Alters über ihre Infrarotspektren nun direkt verfolgen kann.


Den Schleier lüften
Die Bok-Globule B68 erscheint im Optischen wie ein Loch im Sternenmeer (Bild oben). Der in dieser Dunkelwolke enthaltene interstellare Staub absorbiert das Licht der dahinter liegenden Sterne. Bereits im nahen Infrarot - bei einer Wellenlänge von 2 Mikrometern - wird die Staubwolke durchsichtig, da die Wechselwirkung der winzigen Staubteilchen mit der langwelligeren Strahlung geringer ist (oben rechts). Aus der Schwächung des Lichts, der Extinktion, ergibt sich für die Masse der Wolke ein Wert von etwa 2 Sonnenmassen. Dabei wurde angenommen, dass die Wolke zu 99 Prozent aus Gas (überwiegend molekularer Wasserstoff H2) und zu einem Prozent aus Staub besteht. Das Instrument SPIRE an Bord des Weltraumteleskops Herschel untersuchte das Objekt auch im fernen Infrarot bei einer Wellenlänge von 350 Mikrometern (rechts). Daraus lässt sich die Temperatur des Staubs zu 10 bis 18 Kelvin ableiten. Möglicherweise sind die Bedingungen in dieser Wolke nicht hinreichend für die Entstehung eines Sterns, günstiger sind sie in größeren, kompakteren und kälteren Wolken.
Abbildungen der Originalpublikation im Schattenblick nicht veröffentlicht:
1. optisch / 2. Nahinfrarot / 3. Ferninfrarot

Exoplaneten

Die Entdeckung des ersten Planeten um einen sonnenähnlichen Stern im Jahre 1995 löste eine Welle von Suchprogrammen nach weiteren extrasolaren Planeten aus. Inzwischen ist daraus weltweit eine ganze Forschungsindustrie entstanden, die bis heute mehr als 700 Exoplaneten aufgespürt hat. Michel Mayor und Didier Queloz von der Sternwarte Genf hatten um den Stern 51 Pegasi (5,5 mag) einen jupitergroßen Planeten mit der Radialgeschwindigkeitsmethode gefunden. Dazu reichte ihnen das mit einem hochauflösenden Echelle-Spektrometer ausgerüstete 1,9-Meter-Teleskop am Observatoire de Haute Provence. Mit diesem Instrument ließ sich die periodisch schwankende Radialgeschwindigkeit eines Sterns, der mit einem Planeten um den gemeinsamen Schwerpunkt kreist, über den Dopplereffekt mit einer Genauigkeit von sieben Metern pro Sekunde messen. In den ersten Jahren wurden vor allem massereiche Planeten gefunden, die ihren Zentralstern auf engen Bahnen umkreisen. In solchen Systemen ist die Geschwindigkeitsschwankung besonders groß, und sie liefern deshalb ein starkes Dopplersignal: Der Planet um 51 Pegasi etwa hat eine Umlaufzeit von nur vier Tagen. Eine »Erde« ließe sich mit dieser Methode nicht entdecken, da sie nur eine Pendelbewegung von acht Zentimetern pro Sekunde an der Sonne verursacht, also viel weniger als die Turbulenzgeschwindigkeiten in der Sonnenatmosphäre (SuW 6/1997 S. 532).

Das Thema Exoplaneten ist eines der faszinierendsten der neueren Astronomie geworden, berührt es doch unsere menschliche Existenz. Jetzt wissen wir bereits, dass unser Sonnensystem nicht einzigartig ist, sondern dass es wahrscheinlich Milliarden Planeten um andere Sterne der Milchstraße gibt. Eine nahe liegende Frage ist, ob diese nach menschlichen Maßstäben auch lebensfreundlich sind. Die wichtigste Voraussetzung dafür ist flüssiges Wasser auf der Oberfläche eines Planeten. Zudem sollte eine sauerstoffhaltige Atmosphäre vorhanden sein, der Planet steinig sein und eventuell eine Plattentektonik zur Aufrechterhaltung des CO2-Treibhauseffekts haben. Zu den gegenwärtig bekannten erdähnlichen Planeten zählt Gliese 581e (1,9 Erdmassen), der seinen Zentralstern, einen Roten Zwerg mit nur 1/500 der Sonnenleuchtkraft, innerhalb von drei Tagen umkreist. Am 9. Oktober 2008 verließ eine Nachricht (»A Message from Earth«) die 70 m-Radioantenne RT-70 in der Ukraine in Richtung des 20,3 Lichtjahre entfernten Sterns. Sie wird dort 2029 ankommen. Falls die Außerirdischen im System Gliese 581 postwendend antworten sollten, müssen wir ab 2049 lauschen...

Weitere interessante Kandidaten lieferten uns die 2006 und 2009 gestarteten Satelliten Corot und Kepler. Beide suchen mit der besonders aussagekräftigen Transitmethode nach Planeten, deren Bahnebenen genau in unserer Blickrichtung liegen und die dadurch regelmäßige »Sternbedeckungen« verursachen. Dabei verringert sich die scheinbare Helligkeit des Zentralsterns um etwa 0,1 Prozent. In einem kleinen Fleckchen Himmel wurden so schon zweitausend Kandidaten gefunden. Darunter sind bereits Planeten von annähernd der Größe der Erde. Weltweit werden Programme vorbereitet, um die Atmosphären dieser »Supererden« zu charakterisieren (siehe SuW 3/2012 S. 48).

Ergänzend hierzu steht das noch junge Forschungsgebiet der Astrobiologie. Es befasst sich mit Fragestellungen, wie Leben definiert werden kann und wie es auf der Erde entstanden ist. Dazu gehören auch Laborexperimente und die Suche nach exotischen Mikroorganismen auf unserem Planeten. Einfache Lebewesen wurden bereits in heißen Quellen, im kältesten Eis, im Salz und im tiefsten Gestein entdeckt. Wenn Mikroorganismen solche extremen Bedingungen als Lebensnischen zu nutzen wissen, könnte es sie dann möglicherweise auch auf dem Mars oder in einem eisbedeckten Ozean auf einem der Monde von Jupiter oder Saturn geben?


Sind wir allein?

Bereits Jahrzehnte vor der Entdeckung des ersten extrasolaren Planeten startete die Suche nach außerirdischem Leben. »Telegraphie mit Lebewesen fremder Planeten«, so betitelte Sebastian von Hoerner seinen 1962 im ersten Heft von »Sterne und Weltraum« erschienenen Aufsatz. Der Radioastronom hatte mehrere Jahre am amerikanischen Green Bank Telescope gearbeitet. Dort hatte Frank Drake 1959 mit der Signalsuche bei »verdächtigen« Sternen begonnen. Zuvor hatte er die Wahrscheinlichkeit berechnet, mit der sich andere technische Zivilisationen auffinden lassen sollten. Es ist erstaunlich, wie gut die vielen Faktoren, die in die berühmte, nach Drake benannte Formel eingehen, schon vor 50 Jahren abgeschätzt wurden: Obwohl noch mehr als drei Jahrzehnte bis zur Entdeckung des ersten Exoplaneten vergehen sollten, wurde der Anteil der Einzelsterne mit stabilen Planetenbahnen auf 40 Prozent geschätzt. Wiederum die Hälfte davon sollte in der lebensfreundlichen Zone liegen.

Das Empfangen von Signalen schien seinerzeit aussichtsreicher als das Senden zu sein. Die ersten stärkeren Radiosignale unserer irdischen Zivilisation waren damals ja erst seit 40 Jahren unterwegs (Rundfunk). So konnten Außerirdische in Entfernungen von mehr als 40 Lichtjahren noch nichts von uns wissen. Der unsicherste in die Drake-Formel eingehende Faktor ist aber - auch heute noch - die Lebensdauer einer technischen Zivilisation: Auf der Erde stehen wir gerade an deren Beginn und wissen bei diesem einzigen Beispiel noch nicht, wie lange sie dauern wird. Von Hoerner nahm 100.000 Jahre an, ein Wert, den Optimisten für unser Überleben auch heute noch ansetzen.

Seit mehr als 50 Jahren wird nun der gesamte Himmel mit Radioteleskopen nach Signalen anderer Zivilisationen abgesucht, darunter mit der 300-Meter-Antenne in Arecibo. Seit 2007 lauscht ein eigens für diese Suche (»Search for Extraterrestrial Intelligence«, SETI) gebautes Netz aus 42 6-Meter-Teleskopen in Kalifornien, das weit gehend von Microsoft-Mitbegründer Paul Allen finanziert und nach ihm benannt wurde (Allen-Array). Allerdings stagniert gegenwärtig der Ausbau auf die geplanten 350 Antennen, und selbst der Betrieb der laufenden 42 Antennen wurde wegen Geldmangels im Sommer 2011 für Monate unterbrochen. Aber die SETI-Wissenschaftler haben einen langen Atem. Ihre Direktorin, Jill Tarter, vergleicht den bisherigen Aufwand und das bisherige Ausbleiben eines Ergebnisses mit der Situation eines »Wissenschaftlers«, der gerade erst eine Tasse Wasser aus dem Pazifik geschöpft hat und sieht, dass es klar ist und daraus folgert, dass im Pazifik keine Fische leben. Gerade jetzt, nachdem das Kepler-Weltraumteleskop so viele erdähnliche Planeten entdeckt hat und in Meteoriten zweifelsfrei im interstellaren Raum entstandene Bausteine für DNA gefunden worden sind, will das SETI-Institut weiterforschen. Neben dem Allen-Array wird weltweit auch mit kleineren Antennen und im Optischen mit kleineren Teleskopen nach möglichen Lasersignalen extraterrestrischer Zivilisationen gesucht.

Wer wird wohl zuerst ein spektakuläres Ergebnis haben: Die weltweit entstandene Industrie, die gegenwärtig erfolgreich immer mehr extrasolare Planeten entdeckt und in einigen Jahren wohl auch spektroskopische Anzeichen für die Möglichkeit von Leben in den Atmosphären einiger Planeten finden wird? Oder die SETI-Signalsucher? Erstere werden Erfolge haben, aber das etwaige ferne Leben kaum direkt nachweisen können. Falls die Signalsucher über lange Zeit - einige hundert Jahre sollen es schon sein - nichts finden, könnte uns das eine Warnung sein: Technische Zivilisationen haben möglicherweise eine kürzere Lebensdauer als bisher angenommen. Vielleicht zerstören sie sich selbst die Lebensgrundlagen - oder sie verlieren das Interesse an eventuell gefährlichen interstellaren Kontakten (siehe SuW 8/1999, S. 630, sowie SuW 8/2002, S. 83.


Fehlende Sonnenneutrinos

Ein eindrucksvolles Beispiel für die enge Verbindung astronomischer Fragestellungen mit denen der Physik lieferte von den 1970er bis in die 1990er Jahre hinein die Suche nach den »fehlenden Sonnenneutrinos«. Zwar glaubte man auch schon vor 50 Jahren zu wissen, wie die Sonne und die Sterne ihre gewaltige Energieerzeugung bewerkstelligen, nämlich durch Fusion von Atomkernen. Seit den 1920er Jahren war durch Experimente bekannt, dass ein Heliumkern 4He leichter ist als vier Wasserstoffkerne (Protonen). Und die Massendifferenz von 0,7 Prozent entsprach nach Einsteins berühmter Formel E = m·c2 einem Energiebetrag, der bei der Kernumwandlung frei wird.

Hans Bethe und Carl Friedrich von Weizsäcker hatten die Kernreaktionen im Innern der Sonne bereits 1938 theoretisch beschrieben (wofür Bethe 1967 den Nobelpreis für Physik erhielt). Nach der p-p-Reaktion verschmelzen vier Protonen zu einem Heliumkern. Neben der dabei frei werdenden Energie entstehen zwei Positronen und zwei Neutrinos. Die beiden Positronen zerstrahlen mit zwei Elektronen ebenfalls zu Energie; nur die beiden Neutrinos, die kaum mit Materie in Wechselwirkung treten, bleiben trotz der extremen Umgebungsbedingungen unbehelligt.

Im Fusionsreaktor im Kern der Sonne ist die Dichte der Materie 15-fach höher als die von Eisen, und die Temperatur beträgt 16 Millionen Kelvin. Die dort entstehende Energie wird auf dem Weg zur Sonnenoberfläche vielfach umgewandelt, bis sie uns dann - nach vielen tausend Jahren - als Strahlung von der 5600 Kelvin »kühlen« Sonnenoberfläche aus erreicht. Die Neutrinos hingegen verlassen die Sonne ungehindert. Da sie sich nahezu mit Lichtgeschwindigkeit bewegen, erreichen sie uns bereits nach rund acht Minuten. In jeder Sekunde durchdringen 100 Milliarden solare Neutrinos die Fläche eines Fingernagels.

Die geringe Wechselwirkung der Neutrinos macht ihren Nachweis schwierig. Doch weil sie einen direkten Blick in den »Ofen« der Sonne versprachen, schlugen Raymond Davis und John Bahcall im Jahr 1964 ein Experiment vor, mit dem die Vorstellungen über die nukleare Energieerzeugung in der Sonne endgültig bewiesen werden sollten. Als Detektor für die solaren Neutrinos diente ein mit 400.000 Liter Tetrachlorethen (C2Cl4) gefüllter Tank, der in einem tiefen Bergwerk gegen die kosmische Strahlung abgeschirmt war. Jede der seltenen Wechselwirkungen eines Neutrinos mit dem Kern eines Chloratoms wandelte dieses in radioaktives Argon (37Ar) um. Die wenigen pro Woche erzeugten Argonatome mussten vor ihrem Zerfall aus dem riesigen Tank herausgespült und in einem Zählrohr nachgewiesen werden - eine fast unlösbar kompliziert erscheinende Aufgabe.

Vier Jahre später veröffentlichte Davis die ersten Ergebnisse seines spektakulären »Chlor-Experiments«: Die Sonnenneutrinos waren nachgewiesen worden, doch ihr Fluss betrug nur ein Drittel des vorhergesagten Werts! Nachdem die inzwischen entwickelte Helioseismologie, die den inneren Aufbau der Sonne mit Hilfe ihrer Eigenschwingungen untersucht, die für den Kern der Sonne angenommenen Temperaturen bestätigt hatte, von der die Neutrinoproduktion empfindlich abhängt, verfestigte sich das Problem der »fehlenden Sonnenneutrinos«. Hunderte von Forschern weltweit machten sich in den folgenden Jahrzehnten daran, mit aufwändigen unterirdischen Neutrinoteleskopen die Ergebnisse des »Chlor-Experiments« zu überprüfen. Darunter waren der 30 Tonnen Gallium enthaltende Detektor Gallex im italienischen Gran-Sasso-Massiv, der unter Federführung des Heidelberger Max-Planck-Instituts für Kernphysik aufgebaut wurde, und das mit 3000 Tonnen hochreinem Wasser gefüllte japanische Instrument Kamiokande, das die Tscherenkow-Strahlung von Elektronen nachwies, die durch Wechselwirkung mit Neutrinos beschleunigt wurden. Auch diese Geräte zählten in verschiedenen Energiebereichen weniger Neutrinos als vorhergesagt (siehe SuW 9/1986, S. 455, und SuW 1/1993, S. 16).

Für die Lösung des Rätsels lieferten theoretische Physiker in Russland entscheidende Hinweise: Die Neutrinos könnten zwischen verschiedenen Erscheinungsformen als Elektron-, Tau- oder Myon-Neutrino »oszillieren«. Alle bis zum Jahr 2000 durchgeführten Experimente vermochten nur Elektron-Neutrinos von der Sonne nachzuweisen. Dies könnte also den um den Faktor drei zu niedrig gemessenen Neutrinofluss erklären. Neue Detektoren wie das mit schwerem Wasser gefüllte Sudbury Neutrino Observatory in Kanada und Super-Kamiokande in Japan waren schließlich auch für die anderen Neutrinoarten empfindlich, und sie registrierten tatsächlich höhere Flüsse. Jetzt musste das bewährte Standardmodell der Elementarteilchenphysik auf den Prüfstand. Demnach waren Neutrinos masselos. Aber um oszillieren zu können, müssten Neutrinos eine kleine Masse haben. An deren Bestimmung wird nun vielerorts gearbeitet. Ebenso an der Frage, wo die Oszillationen stattfinden: auf dem Weg durch die dichte Materie der Sonne nach außen (dies gilt wahrscheinlich für hochenergetische Neutrinos) oder im Vakuum auf dem langen Weg von der Sonne zur Erde (dies gilt wahrscheinlich für niederenergetische Neutrinos).

Damit hat eine ursprünglich astronomische Frage zu einer bedeutenden Entdeckung geführt und die Elementarteilchenphysik herausgefordert. Für die Astronomie war es ein großer Erfolg, dass die Kernfusion im Sonneninnern experimentell bestätigt wurde. Das Standard-Sonnenmodell wurde zu großer Genauigkeit verfeinert - so kennen wir die hohen Temperaturen im Sonnenzentrum mit einer Genauigkeit von 0,1 Prozent. Und dieses Wissen lässt sich auf den gesamten Kosmos anwenden.

Kosmische Neutrinos
Außer von der Sonne sind kosmische Neutrinos bisher nur von der Supernova SN1987 in der Großen Magellanschen Wolke beobachtet worden. Aus den größten Tiefen des Kosmos sollten uns aber auch sehr hochenergetische Neutrinos erreichen. Sie entstehen bei der Wechselwirkung der höchstenergetischen geladenen Teilchen der kosmischen Strahlung mit den Photonen der allgegenwärtigen 3-Kelvin-Hintergrundstrahlung. Wegen dieser Wechselwirkung können die »kosmischen Teilchenbeschleuniger« direkt nur bis zu Entfernungen von rund 50 Millionen Lichtjahren beobachtet werden. Von viel ferneren Quellen wie aktiven galaktischen Kernen oder Gammastrahlenausbrüchen könnten aber die bei der Teilchenkollision entstandenen Neutrinos Kunde bringen, da sie sich unabgelenkt durch kosmische Magnetfelder bewegen. Die Teleskope zu ihrem Nachweis müssen wegen der sehr schwachen Wechselwirkung der Neutrinos mit Materie besonders groß sein. So werden seit einigen Jahren Tscherenkow-Zähler im arktischen Eis (Amanda, Icecube) und in der See (Antares, Baikal) betrieben und vorbereitet, deren Detektorgröße einen Kubikkilometer erreicht. Den gesamten antarktischen Eisschild benutzt das Anita-Teleskop, mit dem aus Ballonflughöhen die bei der Wechselwirkung der hochenergetischen Neutrinos mit dem Eisschild entstehende Radiostrahlung (Askarianeffekt) nachgewiesen werden soll (siehe SuW 12/2004, S. 30 und SuW 5/2011, S. 22.


Gravitationswellen

Ganz neue Einblicke in den Kosmos erhoffen sich die Astrophysiker mit Hilfe von Gravitationswellen. Diese von Albert Einstein vorhergesagten Schwingungen der Raumzeit entstehen bei äußerst kraftvollen astrophysikalischen Prozessen mit kompakten, extrem massereichen Objekten. Sie enthalten Informationen aus Regionen einer Supernova oder eines Schwarzen Lochs, aus denen uns keine elektromagnetische Strahlung mehr erreicht. Doch ist auch im letzten halben Jahrhundert ihr direkter Nachweis noch nicht geglückt.

Dabei hatte es in den 1960er Jahren sehr hoffnungsvoll begonnen: Joseph Weber entwickelte in den USA einen Detektor aus einem drei Tonnen schweren Metallzylinder, den durchgehende Gravitationswellen in Resonanzschwingungen versetzen sollten. Im Jahr 1969 hatte Weber mit zwei solcher Detektoren, die 1000 Kilometer voneinander entfernt waren, gleichzeitig Signale gefunden, die er als Gravitationswellen interpretierte. Er konnte dieses sensationelle Ergebnis sogar in den angesehenen »Physical Review Letters« veröffentlichen. An vielen Orten der Erde bauten Physiker sofort verbesserte »Weber«-Detektoren nach. Aber in den 1970er Jahren berichtete dann auch SuW mehrfach: immer noch nirgends ein Signal! (siehe SuW 12/1974, S. 394, und SuW-Special 4/2005 »Gravitation«)

Deshalb begann man, viel empfindlichere Detektoren, so genannte Michelson-Interferometer, zu entwickeln. Deren relative Armlänge würde sich ändern, wenn eine vorüberziehende Gravitationswelle den Raum dehnt und staucht. Der zu erwartende Effekt ist winzig: Von den stärkeren Quellen wie etwa verschmelzenden Neutronensternen in Nachbargalaxien wird eine relative Armlängenänderung von einem Tausendstel des Protondurchmessers erwartet. Mehrere solcher großen Interferometer arbeiten seit Jahren weltweit in einer großen Kollaboration zusammen, so die beiden LIGO-Detektoren in den USA mit zwei und vier Kilometer langen Armen, GEO600 bei Hannover (600 Meter) und Virgo in Cascina bei Pisa (drei Kilometer). Seismische Störungen begrenzen die Empfindlichkeit der irdischen Interferometer bei niedrigen Frequenzen (unterhalb von etwa zehn Hertz), dort, wo die stärksten Signale erwartet werden.

Deshalb wird seit vielen Jahren LISA (Laser Interferometer Space Antenna) vorbereitet, ein Weltrauminterferometer aus drei frei fliegenden, lasergekoppelten Satelliten in jeweils fünf Millionen Kilometer Abstand voneinander. Das zunächst gemeinsam von ESA und NASA geplante und technologisch sehr anspruchsvolle Projekt hat kürzlich einen Rückschlag erlitten: Die USA ziehen sich aus finanziellen Gründen weit gehend aus dem Projekt zurück. Die ESA ist zur Fortsetzung entschlossen, allerdings in einer kostengünstigeren Form.

Ob wir wohl 100 Jahre nach Einsteins Vorhersage auf direkte Beobachtungen von Gravitationswellen hoffen dürfen? Bis Messungen vorliegen, müssen wir uns noch mit deren indirektem Nachweis begnügen: Joseph Taylor und Russel Hulse erklärten 1974 den Energieverlust in dem Doppelpulsar PSR 1913+16 durch Abstrahlung von Gravitationswellen. Dafür wurden sie beide 1993 mit dem Nobelpreis für Physik ausgezeichnet.


Wiederbelebte Astrometrie

Messungen der Positionen und Bewegungen der Sterne sind Gegenstand der Astrometrie. Dieses jahrhundertealte Arbeitsgebiet, dem wir die genauen Entfernungsbestimmungen der Sterne und das räumliche Bild der Milchstraße verdanken, stand vor 40 Jahren ganz im Schatten der aufblühenden Astrophysik. Letztere bestimmte den Fortschritt, und mittels ihrer spektroskopischen Methoden ließen sich sehr einfach die radialen Geschwindigkeiten von Sternen und Galaxien bestimmen.

Zwei bedeutende Entwicklungen haben seither die Astrometrie wieder vorangebracht. Die Radioastrometrie schuf ab den 1970er Jahren mit kilometergroßen Interferometern ein hochgenaues Netz von Fixpunkten am Himmel. Dazu wurden 212 Quasare ausgewählt, die wegen ihrer großen Entfernung praktisch keine Eigenbewegung zeigen. Sie stellen das raumfeste »International Celestial Reference System« (ICRS) dar. Der zweite Durchbruch gelang mit dem ersten Astrometriesatelliten Hipparcos. Ab 1989 wurden während der vierjährigen Mission für 120.000 Sterne die Positionen, die jährlichen Eigenbewegungen und die Parallaxen mit einer Genauigkeit von 0,001 Bogensekunden gemessen. Das war 100-mal genauer, als die bis dahin besten Messungen vom Erdboden aus, die im Fundamentalkatalog FK4 zusammengefasst waren. Der hochgenaue Hipparcos-Katalog wurde dann an den Radio-ICRS angeschlossen. Dieses präzise raumfeste System wurde durch die in den letzten Jahrzehnten entstandenen großen Durchmusterungskataloge 2MASS und Sloan Digital Sky Survey (SDSS) ergänzt, die Positionsgenauigkeiten von rund 0,1 Bogensekunden besitzen. Damit stehen heute für mehr als 500 Millionen Sterne astrometrische Daten zur Verfügung, wie sie der beste Fundamentalkatalog FK4 in den 1960er Jahren für nur 1500 Sterne bieten konnte.

Hipparcos hatte Sterne in jeweils 58 Grad voneinander entfernten Sternfeldern vermessen. Diese Großwinkelmethode - im Gegensatz zu Relativabständen zu Nachbarsternen - lieferte absolute Werte für Eigenbewegungen und Parallaxen. So ließ sich die räumliche Struktur der Milchstraße bis zu einer Entfernung von 300 Parsec (etwa 1000 Lichtjahren) mit hoher Genauigkeit aufklären. Das klingt gewaltig groß, erstreckt sich aber doch nur auf ein Prozent des Durchmessers der Milchstraße. Aus den genauen Entfernungen folgten die absoluten Leuchtkräfte der Sterne. Der Eintrag der neu vermessenen Sterne in ein Hertzsprung-Russell-Diagramm ergab das schönste bisher gesehene Bild (siehe Grafik), das viele fundamentale Einsichten in die Physik der Sternentwicklung ermöglichte (siehe SuW 10/1986, S. 524, SuW 11/1997, S. 939, und SuW 11/2006, S. 50.

Beflügelt durch den Erfolg von Hipparcos begann in Europa um 1998 die Entwicklung seines Nachfolgers Gaia. Dieser Satellit wird die genauen Entfernungen von Sternen bis zum Zentrum der Milchstraße (etwa 8000 Parsec) bestimmen und die Spiral- und Balkenstruktur unserer Heimatgalaxie endgültig aufklären. Durch absorptionsarme Himmelsfelder wie Baades Fenster im Sternbild Schütze können dann die gegenüberliegende Seite des galaktischen Zentralbereichs und sogar die Sternverteilung im riesigen Halo der Milchstraße vermessen werden. Gaia wird mehr als eine Milliarde Sterne, Galaxien und Quasare bis zu 70-mal während der dreijährigen Mission erfassen und für Millionen von Sternen Positionsgenauigkeiten von bis zu 0,00002 Bogensekunden liefern. Damit werden sich sogar Exoplaneten über die winzige Pendelbewegung ihres Zentralsterns auffinden lassen. Der ESA-Satellit soll 2013 gestartet werden und dann eine Position im Lagrangepunkt L2 einnehmen: 1,5 Millionen Kilometer von der Erde entfernt, in sonnenabgewandter Richtung. Gegenwärtig arbeiten mehr als 200 Wissenschaftler in Europa an der Vorbereitung dieser einzigartigen Mission (siehe SuW Special 1/2006, S. 24.).


Astronomie wird zur Großforschung

Gehörte das 3,5-Meter-Teleskop des Max-Planck-Instituts für Astronomie bei seiner Inbetriebnahme 1984 noch zu den zehn größten der Welt, so sind diese heute nur noch mittelgroßen Fernrohre inzwischen von einem Dutzend Teleskope der 6- bis 10-Meter-Klasse abgelöst worden. Letztere sind mit adaptiver Optik zur Überwindung der Luftunruhe ausgestattet und erreichen ein Auflösungsvermögen in der Größenordnung von 0,1 Bogensekunden. Mehrere Großteleskope lassen sich mit ähnlich großen Nachbargeräten auf dem gleichen Berg zu noch leistungsfähigeren Interferometern verbinden. Auf diese Weise erreichen das Very Large Telescope (VLT) und die Teleskope Keck I und II sogar Auflösungsvermögen von Millibogensekunden.

Und die Entwicklung geht weiter: Wir stehen vor dem Baubeginn von 30- bis 40-Meter-Teleskopen in Europa und den USA. Diese Giganten werden einschließlich der ersten Fokalebeneninstrumente rund eine Milliarde Euro kosten. Noch dramatischer ist die Kostenentwicklung bei Weltraumobservatorien. Das James Webb Space Telescope als Nachfolger des Weltraumteleskops Hubble soll nach heutiger Schätzung mehr als acht Milliarden Dollar kosten, wenn es 2018 gestartet werden kann. Die Gesamtkosten vieler international bekannter Vorhaben für Beobachtungen vom Boden und aus dem Weltraum überschreiten seit Längerem die 100-Millionen-Euro-Grenze. Damit hat sich die Astronomie seit etwa 1980 zur Großforschung (»Big Science«) entwickelt: Große Maschinen, große Labors, große Budgets, großer Personaleinsatz.

Die Kosten für derartige Vorhaben können seit Jahrzehnten auch die wohlhabenden Länder nicht mehr alleine tragen. Erst Zusammenschlüsse vieler Staaten ermöglichen den Bau sehr großer Teleskope: Die vor 50 Jahren vertraglich gegründete Europäische Südsternwarte (ESO) mit inzwischen 15 Mitgliedsländern baut die größten Bodenteleskope, die Europäische Weltraumagentur (ESA) mit 19 Mitgliedsländern entwickelt die leistungsfähigsten Weltraumobservatorien. Und bei mehreren sehr großen Vorhaben müssen die früheren Wettbewerber aus vielen führenden Ländern zusammenarbeiten. So sind beim Millimeterwellen-Interferometer ALMA neben der ESO die USA, Kanada, Japan, Taiwan und Chile beteiligt. Nur die wissenschaftliche Instrumentierung und Nutzung bleibt den nationalen Instituten übrig, meist müssen sich auch dabei aus Kostengründen viele zu einem wissenschaftlichen Konsortium zusammenschließen (siehe SuW 5/2009, S. 28.

Die Astronomie geht hier den gleichen Weg wie zwei Jahrzehnte zuvor die Hochenergiephysik mit den riesigen Teilchenbeschleunigern und den Detektorkonsortien. Damit wird die Astronomie auch immer internationaler: So arbeiten beispielsweise gegenwärtig am Max-Planck-Institut für Astronomie Wissenschaftler aus 32 Ländern der Erde unter einem Dach zusammen. Auch an der Vergabe der Physik-Nobelpreise für astronomische Arbeiten lässt sich diese Entwicklung ablesen: In den vergangenen zehn Jahren wurden überwiegend solche Personen für bahnbrechende Arbeiten ausgezeichnet, die als Leiter großer Konsortien hervortraten (siehe Tabelle unten).


Physik-Nobelpreise für astrophysikalische Entdeckungen
Jahr
Preisträger
Entdeckung
1936
Victor Hess
Kosmische Strahlung
1967
Hans Bethe
Energieerzeugung in Sternen
1974

Martin Ryle,
Antony Hewish
Radioastronomie (Apertursynthese),
Pulsare
1978

Arno Penzias,
Robert Wilson
Kosmische Mikrowellen-Hintergrundstrahlung

1983


Subrahmanyan
Chandrasekhar,
William Fowler
Theorie Sterne (Weiße Zwerge),
Kernreaktionen für Entstehung schwerer
Elemente
1993

Russell Hulse,
Joseph Taylor
Pulsare in Doppelsternsystemen
(Gravitationsphänomene)
2002


Raymand Davies,
Masatoshi Koshiba,
Riccardo Giacconi
Nachweis kosmischer Neutrinos,
kosmische Röntgenquellen

2006

John Mather,
George Smoot
Schwarzkörperform und Anisotropie der
kosmischen Mikrowellen-Hintergrundstrahlung
2011


Saul Perlmutter,
Brian Schmidt,
Adam Riess
Beschleunigte Expansion des Universums



Neben den realen großen Observatorien am Boden und im Weltraum gibt es jetzt ein riesiges virtuelles Observatorium. Es besteht aus verschiedenen Datenbanken, in denen die gewaltige Informationsflut von Himmelsdurchmusterungen und Beobachtungen zahlloser Einzelobjekte bei unterschiedlichen Wellenlängen gespeichert ist. Sie stehen jedem Forscher für den schnellen elektronischen Zugriff zur Verfügung. So können die Astronomen ihre eigenen Beobachtungen fast immer durch Messungen aus anderen Spektralbereichen ergänzen, eine bedeutende Unterstützung für die physikalische Interpretation.


Werden Entdeckungen seltener?

Fraglich ist allerdings, ob wir trotz des großen Forschungsaufwands in den kommenden Jahrzehnten ähnlich viele astronomische Phänomene entdecken werden wie in den gerade vergangenen. Folgen wir der geistreichen Betrachtung des US-Astronomen Martin Harwit in seinem 1981 erschienen Buch »Die Entdeckung des Kosmos«, so ist die Anzahl der im Universum auffindbaren Phänomene endlich, er schätzt sie auf etwa 130. Als unterschiedliche Phänomene sieht er Erscheinungen an, die sich in wenigstens einem Beobachtungsmerkmal um einen Faktor 1000 unterscheiden: Ein offener Sternhaufen im Milchstraßensystem hat weniger als 1000 Sterne, ein Kugelsternhaufen ungefähr eine Million. Novae und Supernovae wiederum beruhen auf physikalisch unterschiedlichen Ursachen, ihre Helligkeiten unterscheiden sich um mehr als das 10.000-Fache.

Nach Harwits Analyse hatten wir in den zurückliegenden 50 Jahren das Glück, uns auf der Kurve der Häufigkeit von Entdeckungen auf das Maximum zuzubewegen. Viele Entdeckungen kamen unerwartet: Es reichte, mit einem kleinen Instrument einen unerforschten Spektralbereich anzugehen (wie etwa für die Beobachtung von Röntgensternen oder Infrarotgalaxien) oder erstmals Geräte mit hoher Zeitauflösung einzusetzen (wie bei der Beobachtung von Pulsaren oder Gammastrahlenausbrüchen). Nach Harwits Vorhersage von 1981 sollte das Maximum der Entdeckungshäufigkeit um das Jahr 2000 überschritten sein. Der Aufwand für die Suche nach neuen Phänomenen wird seither immer größer: Fast alle Spektralbereiche sind inzwischen für die Beobachtung zugänglich, die Nachweisempfindlichkeiten um Größenordnungen gesteigert. Statt um das Entdecken geht es heute mehr um das umfassende Erforschen der neuen Objekte, um damit ein tiefes physikalisches Verstehen ihrer Natur zu erlangen. Dabei gibt es im kosmischen Labor oft Überraschungen, die zu neuem Denken zwingen, wie etwa die Neutrino-Oszillationen oder die Dunkle Materie. So glauben wir seit Längerem zu wissen, dass sich im Zentrum der Milchstraße ein extrem massereiches Schwarzes Loch befindet. Jetzt beeindruckt uns die weltweite Forschungsarbeit, seine Existenz zu beweisen und die physikalischen Eigenschaften dieses Phänomens durch das Beobachten von Erscheinungen in seiner unmittelbaren Umgebung abzuleiten. Aufregend ist in diesem Zusammenhang die jüngste Vorhersage der Forschungsgruppe von Reinhard Genzel am Max-Planck-Institut für extraterrestrische Physik, nach der wir in den nächsten Jahren das Verschlingen einer derzeit beobachteten interstellaren Wolke miterleben werden!

Aussichtsreich für Entdeckungen mit vergleichsweise bescheidenem Aufwand bleiben beispielsweise die großen und präzisen Himmelsdurchmusterungen in vielen Wellenlängenbereichen, die dann noch häufig wiederholt werden, um veränderliche Erscheinungen aufzufinden. Eine dieser erfolgreichen Durchmusterungen ist der im Jahre 2000 begonnene Sloan Digital Sky Survey (SDSS), mit dem die fernsten Quasare gefunden wurden und der bereits mehr als dreitausend wissenschaftliche Veröffentlichungen zu den verschiedensten astronomischen Forschungsgebieten hervorgebracht hat. Weitere große Durchmusterungen haben begonnen oder stehen kurz vor dem Start: VST, VISTA, Gaia, Pan-STARRS, LSST. Mit diesen himmelsüberdeckenden Such- und Überwachungsprogrammen sollen neue, seltene oder veränderliche Quellen gefunden werden, um deren Natur anschließend mit den neuen Teleskopgiganten genau zu erforschen. Nach Harwit werden bis zum Jahre 2150 etwa 87 Prozent aller kosmischen Phänomene entdeckt sein, nach 3000 bleibt nur noch ein Prozent für künftige Entdecker übrig. Ob er wohl recht behält?


Der neue Himmel

Auch wenn mittlerweile kein Astronom mehr hinter dem Fernrohr steht, sondern alles vom geheizten Kontrollraum aus steuert und beobachtet: Der Sternenhimmel in einer dunklen Nacht fasziniert auch heute noch mit der gleichen Pracht wie vor 50 Jahren. Wir haben ihn damals mit Staunen, einem Gefühl für die Ewigkeit und Begeisterung über das betrachtet, was wir schon über Sterne und Galaxien wussten. Heute begleitet uns ein weiteres Empfinden: Der Himmel ist zu einem großen physikalischen Forschungslabor geworden. Beim Blick zum Orionnebel müssen wir an die Bilder des Hubble Space Telescope denken, die uns viele gerade entstandene Sterne, umgeben von planetenbildenden Staub- und Gasscheiben, gezeigt haben. Im Großen Wagen bleiben wir an der dunklen Stelle oberhalb der Deichsel hängen, an der das Hubble Deep Field aufgenommen wurde, ein Blick über zehn Milliarden Jahre zurück in die Vergangenheit des Kosmos. Und ganz unten am Horizont, südwestlich vom Orion, sehen wir Fornax, in dem das Ultra Deep Field aufgenommen wurde. Trotz seines winzigen Durchmessers von nur drei Bogenminuten zeigt es tausende Galaxien, die jüngsten weniger als eine Milliarde Jahre nach dem Urknall, viele noch klein und mit gewaltigen Sternentstehungsraten. Die meisten werden nicht überleben, sie werden mit ihren Nachbargalaxien zu größeren Sternsystemen verschmelzen. Das Sternbild Schwan können wir nicht mehr betrachten, ohne an Keplers gegenwärtig laufende Suche nach Exoplaneten dort zu denken, die vor ihrem Mutterstern vorbeiziehen und dessen Licht vorübergehend schwächen. Beim Blick in Richtung Schütze fasziniert der Gedanke an das extrem massereiche Schwarze Loch im Zentrum unserer Milchstraße, in dessen Nähe sich physikalische Vorgänge studieren lassen, die im irdischen Labor niemals nachvollziehbar wären. Und während wir den Himmel bestaunen, erinnern wir uns daran, dass unser Körper in jeder Sekunde von Milliarden Neutrinos von der Sonne durchdrungen wird, auch Nachts, denn sie durchfliegen die Erdkugel fast ohne Verluste. In zehn Kilometer Höhe blitzt Tscherenkow-Licht auf, für das bloße Auge unterhalb der Wahrnehmungsgrenze, mit dem höchstenergetische Teilchen Kunde von riesigen, fernen kosmischen Beschleunigern und von Gammaquellen in der Milchstraße bringen.

Hätten wir in dieser Nacht für Millimeterwellen empfindliche Augen, würden wir das Bild des ganz jungen Universums sehen, überall wäre der Himmel hell mit kleiner Körnung, der Anblick 400.000 Jahre nach dem Urknall. Ähnlich könnten wir im fernen Infraroten das Leuchten des kalten Staubs in den Sternentstehungsgebieten der Milchstraße wahrnehmen, das hellste Objekt am Himmel wäre der Orionnebel. Und mit Röntgenaugen blickten wir auf das heiße Universum und würden die Umgebung Schwarzer Löcher und die Supernova-Überreste von vergangenen Sternen sehen. Je nachdem, auf welche Wellenlänge wir unsere »Augen« einstellen: Überall am Himmel gibt es Werden und Vergehen, nichts ist ewig. Ist das nicht tröstlich für den hinaufblickenden Menschen in seinem beschränkten Leben?

Wir wissen heute genau, wie alt unsere Welt ist und verstehen die physikalische Schöpfungsgeschichte von »den ersten drei Minuten« an. Wir haben gelernt, dass in einer Milliarde Jahren die Leuchtkraft der Sonne so weit angewachsen sein wird, dass die Ozeane auf der dann feuchtheißen Erde zu verdampfen beginnen und in drei Milliarden Jahren die Steine schmelzen. So werden wir keine Nachfahren haben, die es miterleben könnten, wenn die mit 400.000 Kilometer pro Stunde auf uns zu rasende Andromedagalaxie in zwei Milliarden Jahren mit unserem Milchstraßensystem kollidiert und ein neuer Quasar aufleuchtet. Und die kürzlich entdeckte Dunkle Energie führt in noch fernerer Zukunft zu einem immer größeren, dunkleren und kälteren Kosmos, ohne jedes Leben. Ist es nicht ein großes Glück, dass wir heute und hier leben und das alles erforschen, verstehen und bewundern dürfen?


Dietrich Lemke
leitete bis zu seiner Emeritierung am Max-Planck-Institut für Astronomie in Heidelberg verschiedene Weltraumprojekte.


Aufsuchhilfe

Die Positionen einiger der in diesem Artikel besprochenen Himmelsobjekte finden Sie in der Druckausgabe auch auf den Himmelskarten auf S. 66/67 eingetragen: Quasar 3C 273 (S. 42), erster Pulsar (S. 43), Krebsnebel (S. 44), Proplyds im Orionnebel (S. 48), Einsteinring (S. 48, Kepler-Suchfeld (S. 51, Cyg X-1 (S. 58, GRB 090423 (S. 58, Hubble Deep Field (S. 59, Andromedagalaxie (S. 60)


Bildunterschriften der im Schattenblick nicht veröffentlichten Abbildungen der Originalpublikation:

Abb. S. 38:
Fenster ins Universum
Der Mond, die hellen Planeten Venus und Jupiter sowie zahllose Sterne und Galaxien prangen am Nachthimmel über dem Berg Paranal in der chilenischen Atacamawüste. Die Europäische Südsternwarte ESO - wie »Sterne und Weltraum« im Jahr 1962 gegründet - betreibt dort das Very Large Telescope (VLT). Solch moderne Observatorien trugen wesentlich zum stürmischen Erkenntnisfortschritt in den letzten Jahrzehnten bei.

Abb. S. 40 oben:
Das Max-Planck-Institut für Astronomie
Die Redaktion der 1962 gegründeten Zeitschrift »Sterne und Weltraum« hat ihren Sitz seit jeher auf dem Königstuhl in Heidelberg. Dieser Standort bot stets auf Grund der Nähe zu den astronomischen Forschungseinrichtungen wie der Landessternwarte (rechts im Bild) und dem 1967 gegründeten Max-Planck-Institut ausgezeichnete Arbeitsbedingungen.

Abb. S. 40 unten:
H-R-Diagramm des künstlichen Sternhaufens M 007
Nach einer Entwicklungszeit von 30 Millionen Jahren haben die masseärmsten Sterne (rechts unten) die Hauptreihe (Wasserstoffbrennen im Kern) noch nicht erreicht. Die massereichsten Sterne (oben) hingegen sind bereits von der Hauptreihe weg nach rechts gewandert, einer ist gerade ein Delta-Cephei-Stern.

Abb. S. 41:
Eroberung des gesamten elektromagnetischen Spektrums
Die Erdatmosphäre ist nur für schmale Bereiche des elektromagnetischen Spektrums durchlässig. Neben sichtbarem Licht vermag nur Infrarot- und Radiostrahlung bestimmter Wellenlängen die irdische Lufthülle zu durchdringen. Weltraum- und Flugzeugteleskope sowie moderne Observatorien in großen Höhen wie ALMA helfen, diese Beschränkungen zu überwinden. Markiert sind jeweils die Spektralbereiche, in denen die Observatorien beobachten.

Abb. S. 42 oben:
Rekord-Rotverschiebungen
Im Gründungsjahr 1962 berichtete SuW über die fernsten Objekte bei Rotverschiebungen von z ≈ 0,58. Heute liegen die größten Rotverschiebungen von Galaxien und Gammablitzen bei z > 9.

Abb. S. 42 unten:
Der Quasar 3C 273 mit Jet im Röntgenlicht
Die Radioquelle 3C 273 ist einer der hellsten und nächsten Quasare; sie lieferte den Schlüssel zur Entdeckung dieser Objektklasse. Aus den rot verschobenen Spektrallinien folgt eine Fluchtgeschwindigkeit von 48.000 Kilometern pro Sekunde. Mit einer Helligkeit von 13 mag ist der Quasar bereits mit Amateurteleskopen zu sehen.

Abb. S. 43:
In der Ausgabe des Fachjournals »Nature« vom 24. Februar 1968 stellten Antony Hewish und seine Koautoren die Entdeckung der »pulsierenden Radioquelle« vor und versuchten eine physikalische Deutung. Die abgebildeten Messstreifen zeigen die Pulsarsignale in verschiedenen Messanordnungen.

Abb. S. 44 unten:
Das Zentrum des Krebsnebels
Mitten im Krebsnebel befindet sich ein Pulsar (Pfeil), der seine Umgebung ionisiert und aufheizt. In diesem Kompositbild ist eine optische Aufnahme des Weltraumteleskops Hubble (rot dargestellt) mit einer Aufnahme im Röntgenlicht (blau) überlagert. Vom Pulsar scheint ein turbulenter Jet auszugehen.

Abb. S. 44 und 45 oben:
»Babybilder« des Universums
Die Satelliten COBE und WMAP maßen die winzigen Temperaturfluktuationen der kosmischen Mikrowellenhintergrundstrahlung. In den blauen Bereichen der Himmelskarten liegt die Temperatur um wenige Mikrokelvin unter dem Mittelwert von 2,73 Kelvin, in den roten Bereichen geringfügig darüber. In diesen Temperaturabweichungen spiegeln sich Dichteunterschiede im frühen Universum wider, die letztlich zu den heutigen Strukturen im Kosmos führten.

Abb. S. 46:
Hinweise auf Dunkle Materie
Gemäß der keplerschen Gesetze sollte die Umlaufgeschwindigkeit von Sternen um das Zentrum ihrer Galaxie mit wachsender Entfernung abnehmen. Doch die Rotationskurven verlaufen flach, die Umlaufgeschwindigkeit bleibt nahezu unverändert (Grafiken oben; zwei der untersuchten Galaxien sind in der unteren Bildreihe gezeigt). Diese Beobachtungen rückten die vermutete Dunkle Materie im Halo der Galaxien ins Bewusstsein der Astrophysiker.

Abb. S. 47 oben:
Simulationen damals
Die Entstehung des Coma-Galaxienhaufens wurde 1970 aus 300 gleich großen Objekten unter dem Einfluss gegenseitiger Gravitation simuliert. Zum Einsatz kam die vor 40 Jahren als groß geltende Rechenmaschine CDC 3600.

Abb. S. 47 unten:
Simulationen heute
Mit der so genannten Millenniumsimulation untersuchte Volker Springel auf einem Supercomputer in Garching die Entwicklung des Kosmos mit zehn Milliarden Objekten. Aus dem daraus entstandenen Film ist hier ein Ausschnitt schrittweise vergrößert dargestellt, bis schließlich einer der vielen großen Galaxienhaufen in der Simulation mit den eingebetteten Galaxien zu sehen ist. Die Farbe der Bilder zeigt dabei die lokale »Temperatur« der Teilchen der Dunklen Materie an.

Abb. S. 48 oben:
Säulen der Schöpfung
Eines der bekanntesten Bilder, die das Weltraumteleskop Hubble lieferte, zeigt einen Ausschnitt des Adlernebels im Sternbild Schlange. In verdichteten Molekülwolken aus Gas und Staub entstehen junge Sterne, deren Strahlung nach und nach das verbliebene Material wegbläst.

Abb. S. 48 unten links:
Scheiben im Orionnebel
Im Sternentstehungsgebiet des Orionnebels entdeckte das Weltraumteleskop Hubble die protoplanetaren Scheiben junger Sterne (Proplyds), in denen möglicherweise Planeten entstehen. Hier ist der Stern inmitten der Scheibe zu sehen.

Abb. S. 48 unten rechts:
Einsteinring
Das Gravitationslinsensystem SDSSJ0946+1006, mit dem Weltraumteleskop Hubble fotografiert, zeigt zwei konzentrische Ringstrukturen. Das Licht der Vordergrundgalaxie, die als Gravitationslinse wirkt, ist in diesem Bild ausgeblendet.

Abb. S. 49 oben:
Ultraleuchtkräftige Infrarotgalaxien
Rund eine Milliarde Lichtjahre von der Erde entfernt kollidieren vier Galaxien miteinander. Die stürmische Begegnung löst einen gewaltigen Schub an Sternentstehungsprozessen aus. Durch den dadurch erzeugten Staub leuchtet das Objekt IRAS 19297-0406 im Infraroten 100-mal heller als unsere Milchstraße.

Abb. S. 49 unten:
Spektrum einer Sternengeburtsstätte
Ein junger, heißer Stern ist von einer Wolke aus Gas mit einem geringen Staubanteil umgeben. Im Optischen ist der Stern nicht sichtbar, da seine Strahlung vom Staub absorbiert wird. Im Radiobereich erscheint er als starke Quelle von Kontinuumsstrahlung des ionisierten Gases. Um Größenordnungen heller ist das Objekt im Infrarotbereich: Die absorbierte Sternstrahlung wird als Wärmestrahlung im Infraroten wieder emittiert.

Abb. S. 51:
Das Kepler-Suchfeld
Das am 6. März 2009 gestartete Satellitenobservatorium Kepler trägt ein Teleskop mit einer Öffnung von 95 Zentimetern. Mit seinen 42 CCD-Detektorenüberwacht es permanent rund 156.000 Sterne in einem Feld im Sternbild Schwan nahe der Ebene der Milchstraße. Es sucht dort nach Transitplaneten, die sich durch kleine periodische Helligkeitsänderungen im Sternenlicht verraten.

Abb. S. 52:
Das Radioteleskop in Arecibo
Nicht nur astronomische Radioquellen wie zum Beispiel Pulsare werden mit diesem in einen Talkessel hineingebauten 300-Meter-Teleskop untersucht, sondern es wird auch nach Signalen von extraterrestrischen Zivilisationen gefahndet. Im Rahmen des SETI-Projekts wurde von dort aus eine Radiobotschaft mit Informationen über die Menschheit ins All gesendet.

Abb. S. 53:
Teilchenschauer
Von der Sonne gehen nicht nur Licht und Wärmestrahlung aus - auch ein Schauer aus geisterhaften Teilchen, Neutrinos genannt, strömt unablässig von ihr ab. Jede Sekunde prasseln 1029 dieser lichtschnellen Partikel auf die Erde - und durch dringen sie, als sei unser Planet gar nicht vorhanden.

Abb. S. 54:
Ein Detektor für solare Neutrinos
Dieser mit Tetrachlorethen (C2Cl4) gefüllte Tank ist das Herzstück des »Chlor-Experiments« in der Homestake-Mine in South Dakota (USA), mit dem erstmals der Nachweis solarer Neutrinos gelang.

Abb. S. 55 oben:
Weltrauminterferometer
Extrem heftige Prozesse wie etwa das Verschmelzen von Neutronensternen oder Schwarzen Löchern erzeugen Erschütterungen der Raumzeit, die sich als Gravitationswellen ausbreiten. Technisch sehr aufwändige Laserinterferometer im Weltraum sollen ihre Auswirkungen nachweisen.

Abb. S. 55 unten:
Pionier der Gravitationswellen
Joseph Weber bestückt einen Aluminiumzylinder mit piezoelektrischen Sensoren. Diese sollten Resonanzschwingungen des Zylinders nachweisen, die von durchlaufenden Gravitationswellen erzeugt werden.

Abb. S. 56 unten:
Hipparcos
Mit einem 29-Zentimeter-Teleskop bestimmte der Astrometriesatellit die Positionen, Parallaxen und Eigenbewegungen von 120.000 Sternen.

Abb. S. 56 oben:
Das Hertzsprung-Russell-Diagramm von rund 20.000 Sternen
Die meisten Sterne liegen auf der Hauptreihe, wo sie ihre Energie über sehr lange Zeit aus dem Wasserstoffbrennen im Kern gewinnen. Anhand der Hipparcos-Daten wurde oberhalb der Hauptreihe eine Verdickung entdeckt: Dort halten sich Sterne längere Zeit nach dem Zünden des Heliumbrennens im Kern auf, während sich das Wasserstoffbrennen in einer umgebenden Schale fortsetzt.

Abb. S. 57:
ALMA - das Atacama Large Millimeter Array
Gegenwärtig entsteht in Chile in mehr als 5000 Meter Höhe in der Atacamawüste ein Interferometer aus 66 fahrbaren Einzelantennen mit Durchmessern von zwölf und sieben Metern.

Abb. S. 58 oben:
Zeitalter der Entdeckungen
Die ersten 50 Jahre von »Sterne und Weltraum« fielen mit dem steilen Anstieg der Kurve der Entdeckungshäufigkeit neuer kosmischer Phänomene zusammen (wie Pulsare, Quasare, kosmischer Mikrowellenhintergrund, Maser und vieles mehr).

Abb. S. 58 Mitte:
Cygnus X-1
Eine der stärksten Röntgenquellen am irdischen Himmel ist der 1964 entdeckte Doppelstern Cyg X-1 im Sternbild Schwan. Dabei umkreist ein Schwarzes Loch einen heißen, blauen Stern.

Abb. S. 58 unten:
Gamma-Ray-Burst GRB 090423
Mit einer Rotverschiebung z = 8,2 ist GRB 090423 einer der am weitesten von der Erde entfernten Gammastrahlenblitze und somit eines der ältesten dokumentierten Ereignisse im Universum. Er ereignete sich ungefähr 630 Millionen Jahre nach dem Urknall.

Abb. S. 59:
Das Hubble Ultra Deep Field (HUDF)
Dem Weltraumteleskop Hubble verdanken wir das tiefste bis heute im sichtbaren Licht aufgenommene astronomische Bild. Der erfasste Himmelsausschnitt, etwa so groß wie ein Zehntel des Vollmonds, liegt in einer dunklen Region im Sternbild Chemischer Ofen (lateinisch: Fornax) südwestlich des Orion. Die Aufnahme wurde im Winter 2003/2004 insgesamt 11,3 Tage lang belichtet und zeigt mehr als 10.000 Galaxien in kosmologischer Entfernung. Das kleine Bild zeigt die erste Durchmusterung des Hubble-Teleskops 1996, das so genannte Hubble Deep Field (HDF).

Abb. S. 60:
Die Andromedagalaxie M 31
In klaren Nächten ist die etwa 2,5 Millionen Lichtjahre entfernte Andromedagalaxie mit bloßem Auge zu sehen. Wie unser Milchstraßensystem enthält sie rund 200 Milliarden Sterne. Beide Welteninseln nähern sich einander, und in ungefähr zwei Milliarden Jahren werden sie sich durchdringen und zu einem riesigen Sternsystem vereinigen.


© 2012 Dietrich Lemke, Spektrum der Wissenschaft Verlagsgesellschaft mbH, Heidelberg

*

Quelle:
Sterne und Weltraum 4/12 - April 2012, Seite 38 - 60
Zeitschrift für Astronomie
Herausgeber:
Prof. Dr. Matthias Bartelmann (ZAH, Univ. Heidelberg),
Prof. Dr. Thomas Henning (MPI für Astronomie),
Dr. Jakob Staude
Redaktion Sterne und Weltraum:
Max-Planck-Institut für Astronomie
Königstuhl 17, 69117 Heidelberg
Telefon: 06221/528 150, Fax: 06221/528 377
Verlag: Spektrum der Wissenschaft Verlagsgesellschaft mbH
Slevogtstraße 3-5, 69117 Heidelberg
Tel.: 06221/9126 600, Fax: 06221/9126 751
Internet: www.astronomie-heute.de

Sterne und Weltraum erscheint monatlich (12 Hefte pro Jahr).
Das Einzelheft kostet 7,90 Euro, das Abonnement 85,20 Euro pro Jahr.


veröffentlicht im Schattenblick zum 14. Juni 2012