Datagrid in Earth System Sciences (DGESS) - Integration und Erweiterungen - Projektreffen am Max-Planck-Institut für Meteorologie Heinrich Widmann 28. November 2005
Projektplan – Planung Kickoff 05/05
Phase II : Integration und Anpassung AP II.1 : Integration weiterer Rechner als 'grid hosts' AP II.2 : Integration weiterer Benutzer und Arbeitsgruppen AP II.3 : Platform-, Architektur- und Ressourcenabhängigkeit testen AP III.4 : Automatische Installation der execution hosts AP II.5 : Benutzerführung und Dokumentation AP II.6 : Verzeichnisdienste AP II.7 : Soziologie : Verabredungen, Policies und Accounting AP II.8 : Portal
Phasen III bis V Phase III : Institutsweite Einführung AP III.1 : Gewährleistung von allgemeinen Anforderungen AP III.2 : Eröffnung der institutsweiten Testphase AP III.3 : Aufnahme des produktiven Betriebs Phase IV : Optimierungen Phase V : Institutsübergreifende Erweiterungen
Ausgangslage : ZMAW und IT-Infrastruktur Das Zentrum für Marine und Atmosphärische Wissenschaften (ZMAW) besteht aus dem MPI für Meteorologie und sechs Instituten der Universität Hamburg Komplexe und heterogene Infrastruktur ca. 400 Workstations + Server (Sun Fire 15k, Opteron,...) Große Datenmengen werden über das Netzwerk bewegt Zentraler IT-Support (CIS) 2006 : zus. Storage (32 TB 'disc cache'??) und Linuxcluster
Datagrid am ZMAW
IT-Umgebung des ZMAW : I/O zwischen Compute-, Datei- und DB-Systemen M&D : Datenmanagement und CERA Datenbank DWD,... ZMAW - LAN/Grid DKRZ : HPC und Archiv Paralleles FS (GFS) CERA DB - Archiv - Tapes - NEC-SX6 - Metadatenbankmodell Weitere, assozieerte Klimaforschungsinstitute : - z.T. Assoz. Projektpartner und/oder im C3-Grid und Teilhaber des DKRZ AWI GKSS Weitere, entfernte Datenzentren Met- Office,... ECMWF Earth- simulator,... ZMAW
Einbinden in überregionale Grids (EGEE) ZMAW als zertif. VO (virtuelle Organistation) LDAP EGEE Entfernte Resourcen Portal
Konzept für Übergang vom Testbed zum Produktivsystem Wie muessen die Server dimensioniert sein (CPU, memory,...) ? Mit welcher realistischen Last ist zu rechnen ? Wie gross muss Storage/RAID ausgelegt werden, das am grid haengt Was muss in Hinsicht auf Linuxcluster und Multiprozessorserver prophylaktisch eingeplant werden ? Dazu bestehende Gridsysteme anschauen (DEISY (Hamburg und Zeuthen), RWTH,...)
Die übernächsten Schritte (Prio 2) Über das Grid und mit Metadaten in die CERA- Datenbank schreiben (mit M&D) Testfileserver am DKRZ Realistische Lastszenarien Zertifizierung für Einbindung in EGEE Lösungen für Datentransfer und -storage (mit DKRZ)...
Organisatorisches (1) Websites : DGESS : -> About Us -> Projectswww.cis.zmaw.de HH-Cluster-C3-Grid-Dokuwiki : c3grid.dkrz.de Mailingliste : Vielen Dank an SUN für Support und Verköstigung das MariTeam (Mariola+Mario) für Kaffeeservice alle für Teilnahme und Mitarbeit !!
Organisatorisches (2) Abendessen : um 19 h im R&B Weidenallee 20, Hamburg Naechstes Projektmeeting ? Sommer 2006 ? Noch Fragen ? => Fragen ! Diskussion...