Präsentation herunterladen
Die Präsentation wird geladen. Bitte warten
Veröffentlicht von:Berahthraben Zemke Geändert vor über 10 Jahren
1
Datagrid in Earth System Sciences (DGESS) - Integration und Erweiterungen - Projektreffen am Max-Planck-Institut für Meteorologie Heinrich Widmann 28. November 2005
2
Projektplan – Planung Kickoff 05/05
3
Phase II : Integration und Anpassung AP II.1 : Integration weiterer Rechner als 'grid hosts' AP II.2 : Integration weiterer Benutzer und Arbeitsgruppen AP II.3 : Platform-, Architektur- und Ressourcenabhängigkeit testen AP III.4 : Automatische Installation der execution hosts AP II.5 : Benutzerführung und Dokumentation AP II.6 : Verzeichnisdienste AP II.7 : Soziologie : Verabredungen, Policies und Accounting AP II.8 : Portal
4
Phasen III bis V Phase III : Institutsweite Einführung AP III.1 : Gewährleistung von allgemeinen Anforderungen AP III.2 : Eröffnung der institutsweiten Testphase AP III.3 : Aufnahme des produktiven Betriebs Phase IV : Optimierungen Phase V : Institutsübergreifende Erweiterungen
5
Ausgangslage : ZMAW und IT-Infrastruktur Das Zentrum für Marine und Atmosphärische Wissenschaften (ZMAW) besteht aus dem MPI für Meteorologie und sechs Instituten der Universität Hamburg Komplexe und heterogene Infrastruktur ca. 400 Workstations + Server (Sun Fire 15k, Opteron,...) Große Datenmengen werden über das Netzwerk bewegt Zentraler IT-Support (CIS) 2006 : zus. Storage (32 TB 'disc cache'??) und Linuxcluster
6
Datagrid am ZMAW
7
IT-Umgebung des ZMAW : I/O zwischen Compute-, Datei- und DB-Systemen M&D : Datenmanagement und CERA Datenbank DWD,... ZMAW - LAN/Grid DKRZ : HPC und Archiv Paralleles FS (GFS) CERA DB - Archiv - Tapes - NEC-SX6 - Metadatenbankmodell Weitere, assozieerte Klimaforschungsinstitute : - z.T. Assoz. Projektpartner und/oder im C3-Grid und Teilhaber des DKRZ AWI GKSS Weitere, entfernte Datenzentren Met- Office,... ECMWF Earth- simulator,... ZMAW
8
Einbinden in überregionale Grids (EGEE) ZMAW als zertif. VO (virtuelle Organistation) LDAP EGEE Entfernte Resourcen Portal
9
Konzept für Übergang vom Testbed zum Produktivsystem Wie muessen die Server dimensioniert sein (CPU, memory,...) ? Mit welcher realistischen Last ist zu rechnen ? Wie gross muss Storage/RAID ausgelegt werden, das am grid haengt Was muss in Hinsicht auf Linuxcluster und Multiprozessorserver prophylaktisch eingeplant werden ? Dazu bestehende Gridsysteme anschauen (DEISY (Hamburg und Zeuthen), RWTH,...)
10
Die übernächsten Schritte (Prio 2) Über das Grid und mit Metadaten in die CERA- Datenbank schreiben (mit M&D) Testfileserver am DKRZ Realistische Lastszenarien Zertifizierung für Einbindung in EGEE Lösungen für Datentransfer und -storage (mit DKRZ)...
11
Organisatorisches (1) Websites : DGESS : www.cis.zmaw.de -> About Us -> Projectswww.cis.zmaw.de HH-Cluster-C3-Grid-Dokuwiki : c3grid.dkrz.de Mailingliste : datagrid@lists.zmaw.de Vielen Dank an SUN für Support und Verköstigung das MariTeam (Mariola+Mario) für Kaffeeservice alle für Teilnahme und Mitarbeit !!
12
Organisatorisches (2) Abendessen : um 19 h im R&B Weidenallee 20, 20357 Hamburg Naechstes Projektmeeting ? Sommer 2006 ? Noch Fragen ? => Fragen ! Diskussion...
Ähnliche Präsentationen
© 2024 SlidePlayer.org Inc.
All rights reserved.