Die Vermessung der Milchstraße: Hipparcos, Gaia, SIM

Slides:



Advertisements
Ähnliche Präsentationen
Hier einige Hieroglyphen:
Advertisements

Perceptrons and the perceptron learning rule
Thema: Algorithmusdesignverfahren Vu Hoang Lam IMN04 HTWK-Leipzig Obersemminar Softwareentwicklung.
Frame-Logik Eine Einführung Andreas Glausch.
Kosmologie mit Supernovae 1a
Dynamische Seiten mit Dreamweaver Zugriff auf (mysql) Datenbank mit PHP.
Magnetische Resonanz Monika Thalmaier
Die Beschreibung von Bewegungen
Grundlagen der Informatik
Kollisionen erkennen Kollisions- und Schnittpunkttests auf Dreieckbasis Kollisions- und Schnittpunkttests auf Viereckbasis Einsatz von achsenausgerichteten.
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik Algorithmische Probleme in Funknetzwerken IX Christian Schindelhauer
Sortierverfahren Richard Göbel.
Java: Dynamische Datentypen
Sortierverfahren Richard Göbel.
Strukturen. In einer Struktur kann eine beliebige Anzahl von Komponenten (Daten) mit unterschiedlichen Datentypen (im Gegensatz zu Feldern) zusammengefaßt.
Konstruktoren.
Internetstruktur Das Internet besteht aus vielen Computern, die weltweit untereinander vernetzt sind.
Computerkurs: Quantitative Auswertung biochemischer Experimente
Kapitel 1 Das Schubfachprinzip
Apparent motion illusion
Dynamische Webseiten mit PHP
GEMS: 100 Quasare, Galaxien, Jahre AIP Kuratoriumssitzung 17. Mai 2004 Knud Jahnke, Galaxies Group 1 GEMS: 100 Quasare, Galaxien,
Galaxien, Quasare, Schwarze Löcher
eXtreme Programming (XP)
Die Vermessung der Milchstraße: Hipparcos, Gaia, SIM
Die Vermessung der Milchstraße: Hipparcos, Gaia, SIM
Die Vermessung der Milchstraße: Hipparcos, Gaia, SIM
Die Vermessung der Milchstraße: Hipparcos, Gaia, SIM Vorlesung von Ulrich Bastian ARI, Heidelberg Sommersemester 2004.
Die Vermessung der Milchstraße: Hipparcos, Gaia, SIM
Universitätsrechenzentrum Heidelberg Hartmuth Heldt HD-Net Backbone 1 HD-Net Backbone Stand: 1/2003.
Die Vermessung der Milchstraße: Hipparcos, Gaia, SIM Vorlesung von Ulrich Bastian ARI, Heidelberg Sommersemester 2004.
Access 2000 Datenbanken.
Zusammenarbeit zwischen GFZ Potsdam und Weinberg-Gymnasium Kleinmachnow Projektvorschlag für eine Kooperation bei der Entwicklung und Gestaltung der GESIS-„Science.
Raid 0.
Wie macht man ein Sudoku? Transformations-Methode:
Lommy® SAFE Individuelles Überwachen von Fahrzeugen und Gütern.
Galaxien und ihre Entfernungsbestimmung
Abschlussvortrag zur Studienarbeit
Wie funktioniert eine Digitalkamera?
Der Mond Warum ist das so?
Computergraphische Visualisierungs- verfahren für 3D-Stadtmodelle
Quantenchemische Grundlagen (I)
Quantenchemische Grundlagen (I)
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
§3 Allgemeine lineare Gleichungssysteme
Wie schreibe ich eine Diplom- bzw. Masterarbeit ?
Die Struktur von Untersuchungen
SS 2004 Datenbanken 4W Mi 13:30 – 15:00 G 2.30 Vorlesung #7 SQL (Teil 2)
Algebraische Schleifen und Strukturelle Singularitäten
Astronomie-Kurs 2-stündig.
Informatik: Zwischen Wissenschaft und Zehnfingersystem
Precision Agriculture (PA): Ein nützliches Instrument für Landwirte Warum nutzen so wenig Landwirte Precision Agriculture? Andreas Jarfe Zentrum für Agrarlandschafts-
Maximale Sicherheit für PC-Systeme. Was ist der PC-Sheriff 2000? Wie funktioniert der PC-Sheriff 2000? Warum PC-Sheriff 2000? Desktop-Probleme Vorteile.
Ein Überblick über verschiedene Verfahren
Helwig Hauser Teil 9: Radiosity Simulation globaler Lichtverteilung.
Maximale Sicherheit für PC-Systeme.
Institut für Kartographie und Geoinformation Prof. Dr. Lutz Plümer Geoinformation III Vorlesung 1 WS 2001/02 Punkt-in-Landkarte I (Streifenkarte)
Die Suche nach Exoplaneten
Übung 6 - MdMT Methoden der Medizintechnik Übung zur Vorlesung Folge 6 – Bilder in Matlab Einlesen, Erzeugen.
Geschichte der Erde.
Directors Prof. Dr.-Ing. K.D. Müller-Glaser Prof. Dr.-Ing. J. Becker Prof. Dr. rer. nat. W. Stork Institute for Information Processing Technology.
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik Algorithmische Probleme in Funknetzwerken VIII Christian Schindelhauer
BRITE-Constellation besteht zur Zeit aus zwei Satelliten, UniBRITE und BRITE-AUSTRIA (TUGSAT-1). Jeder ist mit einer CCD Kamera ausgestattet, die Helligkeitsänderungen.
Einführung in die Informationsverarbeitung Teil Thaller Stunde II: Datenstrukturen Köln 25. Oktober 2012.
Anfang Präsentation 3. November, 2004 Tarjan’s Schleifenaufbrechalgorithmus In dieser Vorlesung wird ein Verfahren vorgestellt, welches in der Lage ist,
Niko Zenker1 Besondere Aspekte in Multimedia-Datenbanken Methoden zur iterativen Anfrageverfeinerung (Relevanz Feedback)
Spärliche Kodierung von Videos natürlicher Szenen Vortragender: Christian Fischer.
URAT1 Ein neuer Sternkatalog für die Astrometrie Mike Kretlow – KPT 2015 in Essen.
DOAG SID Data Warehouse
 Präsentation transkript:

Die Vermessung der Milchstraße: Hipparcos, Gaia, SIM Vorlesung von Ulrich Bastian ARI, Heidelberg Sommersemester 2004

Gliederung Populäre Einführung I: Astrometrie Populäre Einführung II: Hipparcos und Gaia Wissenschaft aus Hipparcos-Daten I Wissenschaft aus Hipparcos-Daten II Hipparcos: Technik und Mission Astrometrische Grundlagen Hipparcos Datenreduktion Hauptinstrument Hipparcos Datenreduktion Tycho Gaia: Technik und Mission Gaia Global Iterative Solution Wissenschaft aus Gaia-Daten Sternklassifikation mit Gaia SIM und andere Missionen

Gaia Datenreduktion

Aufgabe der Datenreduktion: Wie bei Hipparcos Datenmengen: Telemetrie (komprimiert): 3 Mb/s * 10 h/Tag *5 Jahre = 2.5 1013 B = 25 TB Telemetrie (dekomprimiert): ca. 80 TB Rohdaten in Datenbank: vielleicht 250 TB Hauptkatalog: 1000 B/Stern * 109 Sterne = 1000 GB = 1 TB Plus Spektren, Einzelhelligkeiten, ... einige TB Rohe Telemetrie nur 30 mal so viel wie Hipparcos, obwohl 10000 mal so viele Sterne und wesentlich mehr Information pro Stern. - Bordrechner!

Allgemeine Formulierung des Ausgleichungsproblems: Wie bei Hipparcos, aber zusätzlich viel mehr Spektroskopie/Photometrie. Insbesondere ist wiederum ist für die Astrometrie nur eine gemeinsame, gleichzeitige Ausgleichung der - astrometrischen Sternparameter („zeitunabhängig“) - Kalibration des Instruments („langsam variabel“) - Attitude („rasch veränderlich“) möglich. Anmerkung: Die Photometrie/Spektroskopie ist weniger komplex als die Astrometrie, weil es Kalibrationsobjekte am Himmel gibt, und weil die Attitude als Komplikation fehlt.

Größe des Rechenproblems (nur Astrometrie): Die Unbekannten sind zunächst die astrometrischen Parameter der Sterne. Dazu kommen aber rund 2000 Kalibrationsparameter pro Tag, und 3 Attitude- parameter pro 15 Sekunden: 5 109 astrometrische Parameter 4 106 Kalibrationsparameter 1 108 Attitudeparameter Insgesamt ca. 5 109 Unbekannte Die astrometrischen Elementarmessungen sind bei Gaia die centroids der Bilder von den CCDs. Im Durchschnitt gut 1000 Einzelbilder pro Stern. Insgesamt also 1000 * 109 Sterne = 1012 centroids. Also 1012 Beobachtungsgleichungen. Wiederum ist, wie bei Hipparcos, eine geschlossene Lösung des Problems in einem Guss nicht möglich.

Lindegren ca. 1999 Neue Methode: Global Iterative Solution (GIS) Hauptsächlicher Zweck: Näherungen der Großkreisreduktion vermeiden Der Gesamtkomplex der Datenreduktion besteht aus mehreren Teilen: Vorverarbeitung der Rohdaten, „pre-processing“ Global Iterative Solution (GIS), „core processing“ Nachbearbeitungen, „shell processing“, einschliesslich „Spectro-GIS“ „First Look“ und anfängliche Grobkalibration „Science Alerts“

Vorverarbeitung der Rohdaten, „ pre-processing“ Bodensegment (ESA): Empfangen, Dekomprimieren und ggf. Umformatieren der Telemetrie. Erste Überprüfung, ob die Daten o.k. sind und an Bord alles korrekt arbeitet, sog. Quick Look. Übertragen zum Gaia Data and Processing Centre, DPC. Datenauswertekonsortium: database ingestion: Einbau der Telemetriedaten in die Haupt-Datenbank initial data treatment: Zentrierung, Erkennen von „cosmics“ und anderen Bildstörungen, Ausgleich von bekannten CCD-Unregelmäßigkeiten und Defekten, Bestimmung einer Roh-Helligkeit cross-matching: dynamische Zuweisung jedes Bildes (image) zu einem Himmelsobjekt (source). Entweder Zuweisung zu einer in der Daten- bank bereits vorhandenen source, oder Erzeugung einer neuen source.

Die Rohdaten Scan-Richtung So etwa sehen die Bilder des Astro Sky Mappers aus. Im astrometrischen Hauptfeld sind quer zur Scan-Richtung 12 Pixel zusammengefasst, so dass von den Sternbildern im wesentlichen nur noch eine eindimensionale Information übrig bleibt. Scan-Richtung (Sorry, ich habe vor der heutigen Vorlesung keine schöneren Bilder auftreiben können; das soll aber gelegentlich noch verbessert werden).

Die Lage der einzelnen Bilder im Datenstrom kann vordergründig nur in Einheiten von Pixeln bestimmt werden (sowohl in Scan-Richtung als auch quer zur Scan-Richtung). Zur Beachtung: In Scan-Richtung ist die eigentliche astrometrische Observable, nämlich die Pixelkoordinate eines optischen Bildes, eine zeitartige Größe. Sie ist so etwas wie der Zeitpunkt, zu dem das Bild die „rechte Kante“ des CCD verlässt, ausgedrückt in Einheiten von TDI-Takt-Intervallen.

Zentrierung

Koordinatensysteme: Xs Ys Zs (rot): Spacecraft Reference System (Industrie) x, y,z (schwarz): Scanning Reference System (Astronomen) h,z: Field-of-view Reference Systems (Feldkoordinaten) a,d (nicht gezeigt): International Celestial Reference System k,m (nicht gezeigt): Pixelkoordinaten

tobs = Pixelkoordinate (!) = „Durchgangszeit“ = transit time h Dh= Die tatsächliche Beobachtungsgleichung hobs(tobs) - hcalc (tobs) = Dh + v computed h for the observed star from: attitude orbit star parameters fiducial h for the given CCD from: pixel coordinates calibration to be expressed as the linearized right-hand side of an observation equation tobs = Pixelkoordinate (!) = „Durchgangszeit“ = transit time h Dh= Wobei der Vektor u alle Unbekannten enthält: Attitude, Kalibration, Sternparameter, „globale“

h Dh= Global Iterative Solution (GIS), Prinzip Es handelt sich um eine block-iterative Lösung des Gesamtproblems, wie wir sie schon in der Sphere Solution von Hipparcos kennengelernt haben. Man begrenzt jeweils die rechte Seite der Beobachtungsglei- chungen auf die Terme mit den Unbekannten des jeweiligen Blocks. Vier Blöcke: Attitude (A) Calibration (C) Source parameters (S) Global parameters (G) Man fängt mit Näherungswerten für alle Unbekannten an und iteriert im Prinzip in beliebiger Reihenfolge, z.B. A – C – S – G – A – C – S – G ... bis zur Konvergenz, d.h. bis die Änderungen der Unbekannten vernach- lässigbar klein werden. h Dh= j nur aus dem jeweiligen Block

Die Beobachtungsgleichung nochmal in besserer Notation: Wobei: i eine ad-hoc-Nummerierung der Mesung a der Vektor der Attitude-Unbekannten c der Vektor der Kalibrations-Unbekannten s der Vektor der unbekannten Sternparameter g der Vektor der „globalen“ Unbekannten ui der Messfehler der Messung i

Global Iterative Solution (GIS), die einzelnen Blöcke Source (astrometrische Parameter der Sterne): 5 Unbekannte pro Stern (normalerweise). Normalgleichungsmatrizen 5*5 (normalerweise), ca. 1000 Beob/Stern. Größenordnung 100 Millionen „aktive“ Sterne vorgesehen, also 108 Ausgleichungen. Calibration: 1-3 Unbekannte pro CCD und Tag (oder 1 Unbekannte pro CCD-Spalte und Tag). Normalgleichungen: maximal 3*3, Größenordnung einige 105 Beob/CCD/Tag. 5*365*110 = 2 105 Ausgleichungen. Attitude: 4 Unbekannte pro 15 sec (bei Darstellung der Attitude durch Quaternionen). Normalgleichungen: Bandmatrix mit 7 Diagonalen! Deshalb Aufteilung in Abschnitte von einigen Stunden bis 1 Tag. Dann jeweils rund 104 Unbekannte, wegen der Bandstruktur relativ harmlos. Je einige 107 Beob. Einige 103 Ausgleichungen. Global: Nur einige wenige (max. vielleicht 103) Unbekannte. Alle 1011 Beob. Nur eine Ausglg.

Global Iterative Solution (GIS), Vorteile Volle, strenge Lösung des Gesamtproblems Keine Näherungen außer der Linearisierung des Problems Die Näherungen der Großkreisreduktion werden vermieden - Konstanz der Sternpositionen innerhalb eines Tages - projection errors - mögliche „Reste“ von systematischen Fehlern des Input Catalogue Keine einzige Ausgleichung mit sehr vielen Unbekannten dabei Die größten sind die Attitude-Abschnitte, flexibel wählbar Alle Blöcke sehr simpel parallelisierbar

Global Iterative Solution (GIS), Nachteile Keine volle Kovarianzmatrix der Unbekannten Kein wirkliches Problem; die Korrelationen zwischen den Blöcken sind klein. Konvergenzverhalten unbekannt Gute Konvergenz (Faktor 10-100 pro globaler Iteration) wird erwartet, aus simplen geometrischen Argumenten und aus der Hipparcos-Erfahrung. Beweis wird derzeit durch großes Simulationsexperiment geführt. Erste Ergebnisse erst nach mindestens 6 Monaten Mission möglich Die Großkreisreduktion fehlt! Bei Hipparcos tägliche Kontrolle der Funktionen von Satellit und Instrumenten bei voller Genauigkeit. Deshalb: Spezielles Projekt „First Look“ nötig.

Nachbearbeitungen - „shell processing“ Zum Beispiel: „Einhängen“ der 900 Millionen schwächerer Sterne in die Globallösung Detail-Bearbeitung der bei GIS aufgefallenen „gestörten“ Sterne Exoplaneten Detail-Lösungen für visuelle Doppelsterne Suche nach schwachen Begleitern durch Aufsummieren aller Bilder Astrometrische Lösung für die hellen (überbelichteten) Sterne Photometrie, Variabilität Radialgeschwindigkeiten (dazu braucht man präzise Astrometrie!) etc. Astrophysikalische Klassifikation und Parametrisierung gravitational microlensing Bahnen von Objekten des Sonnensystems Kontrolle der Astrometrie mit Quasaren (p=0, m=galaktozentr. Beschl.)

First Look GIS braucht mindestens 6 Monate Daten, um zu funktionieren Keine Kontrolle über Qualität der Messungen auf dem mas-Niveau Großkreisreduktion funktioniert nicht Hipparcos: 200 mas to 2 mas: GCR o.k. DIVA: 20 mas to 0.3 mas: GCR o.k. Gaia: 30 mas to 0.02 mas: GCR nur auf ~300 mas genau Ersatz für Großkreisreduktion nötig Heidelberger Studie: „ring solution“ oder „1-day GIS“

GAIA Data Access and Analysis Study GDAAS

Data Manipulation Layer Globale Logik von GDAAS “Algorithms” “Plans” Variable Database Data Manipulation Layer Processing Framework Core A three tiers architecture was envisaged: The processing framework provides the needed infraestructure for algorithms exectuions The Data Maniupulation layer allows for accesing the database and providing data to the processing framework that in turn feeds the algorihtms. The current processing framework provides flexibility enough to add/replace algorithms Replaceable

Warum eine Datenbank? Weil die selben Daten in ganz verschiedenen Anordnungen und Zusammenhängen ( = Zuordnungen ) benötigt werden: - in zeitlicher Reihenfolge in räumlicher Nachbarschaft am Himmel bezogen auf ein bestimmtes Himmelsobjekt bezogen auf einen bestimmten Datentyp

GDAAS Infrastruktur 1 TB by Dec 2002 2 TB by Dec 2003 4 TB by Dec 2004 8 nodes 4 processors per node 1 central repository

Organisation von GDAAS

„Spectro-GIS“ (SGIS): to data base