30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik1 Computing in der Hochenergiephysik Von der NorD zum Grid Rainer Mankel.

Slides:



Advertisements
Ähnliche Präsentationen
Be.as WEB Technologie
Advertisements

E-Commerce Shop System
Kap. 7 Sortierverfahren Kap. 7.0 Darstellung, Vorüberlegungen
PC-Kauf im IV. Quartal 1998 Dipl.-Ing. Jörg Dannenberg
Übersicht RAID-Verfahren Labor für Betriebsdatenverarbeitung
Nov. 2001Reinhard Ries AFS-Workshop 2001 Statusbericht Rechenzentrum TU Braunschweig Reinhard Ries
Karo IT Viehmarkt Neumarkt Karo IT Neumarkt GmbH | Tel.:
Virtual Storage Das Fundament für Total Enterprise Virtualization.
PC-Cluster.
Was ist J2EE Die Vorteile von J2EE J2EE Modell Die Komponente von J2EE
Datenbankzugriff im WWW (Kommerzielle Systeme)
Windows auf öffentlichen PCs
NATURAL Web-Integration 1 / 27/28-Feb-98 TST NATURAL Web-Integration Arbeitskreis NATURAL Süd Theo Straeten SAG Systemhaus GmbH Technologieberater Stuttgart.
Quantitative Internet- Charakteristiken Wie viele Pages hat das Internet? Bei welchen Wachstums-/Änderungsraten? Wie viele Suchanfragen haben die Suchmaschinen?
Günter Quast Karlsruhe, 4. Oktober 2004 Institut für experimentelle Kernphysik 1 Die großen Zukunftsprojekte: Der Large Hadron Collider (LHC) und ein Elektron-Positron-Linearbeschleuniger.
M. Feindt, U.Kerzel, Th. Kuhr, M. Milnik, T. Müller, G. Quast Universität Karlsruhe Grid-computing bei CDF.
Einsatz des Level-1-Kalorimeter-Trigger Jet/Energiesummen-Moduls bei ATLAS Teststrahlmessungen am CERN.
1 NetWork File System © April 2002, G. Hellberg Network File System Konfiguration und Einsatz.
Vorlesung 3: Verschiedenes Universität Bielefeld – Technische Fakultät AG Rechnernetze und verteilte Systeme Peter B. Ladkin
Softwareverteilung mit Tivoli Erfahrungen, Lösungen, Probleme und offene Fragen Rolf Bogus Gerhard Rathmann Witten
AFS-Workshop 2005 Statusbericht Rechenzentrum TU Braunschweig
Content-Server Content Infra- struktur Streams Lösung Johannes Kohlmann, Universität Mannheim Content Server Johannes Kohlmann.
Fli4l Der Ein-Disketten-Router von Sebastian Röhl von Sebastian Röhl.
Linux-HA-Cluster – Heartbeat mit DRBD
1 Grid Computing Centre Karlsruhe (GridKa) Juli 2001: Anforderungspapier der 8 Nutzergruppen ATLAS, CMS, ALICE, LHCb, CDF, D0, BaBar, Compass mit Kapazitätsbedarf.
Hamburg November Computing in der CMS Gruppe der Uni Hamburg Zwei Bereiche: grid Computing Workgroup Server für Analyse.
Zentrale IT-Services aus der Perspektive eines Experimentalphysikers
2. IT-Klausurtagung 2. Tag Neues beginnen Oktober 2002 in Ludwigslust.
Die Bank von morgen - eine neue Welt für IT und Kunden? 23. Oktober 2001.
Ordner- und Dateistrukturen in Windows 7 (Teil 1)
Datagrid in Earth System Sciences (DGESS) - Integration und Erweiterungen - Projektreffen am Max-Planck-Institut für Meteorologie Heinrich Widmann 28.
Evaluierung des ITU-T.124 Telekonferenzstandards
SKALIERBARE HARDWARE UNABHÄNGIGE LÖSUNGEN FÜR HSM, ARCHIVIERUNG UND SICHEREN DATENAUSTAUSCH YOUR DATA. YOUR CONTROL.
Case Study: Telelernen an der FH Joanneum A. Koubek, J. Pauschenwein, ZML.
Backup und Recovery sehr großer Datenbanken
HOB RD VPN HOB Remote Desktop Virtual Private Network
Präsentation von Alexander Schönfeld
Westfälische Wilhelms-Universität Münster 15-JAN-2004 Heinz-Hermann Adam Benutzung von tragbaren Computern Unter Windows in.
SSDs im SAN – Praxisbericht Teil3
Service Computing   Prof. Dr. Ramin Yahyapour IT & Medien Centrum 19. Januar 2010.
Jabber Seminar XML Technologien SS 2002 Mark Kunzmann.
1 Peer to Peer – GNUTELLA Seminar Innovative Netztechnologien Christophe LE ROQUAIS, den 17. Juni 2002.
Komponenten eines Informationssystems
1© Copyright 2011 EMC Corporation. Alle Rechte vorbehalten. EMC NETWORKER – BACKUP UND RECOVERY FÜR VM WARE.
ESRI EUROPEAN USER CONFERENCE
Netzwerke.
M. Lautenschlager (M&D/MPIM) / / 1 WDC Konsortium Meeting Oberpfaffenhofen, 24/ )CERA-DB 2)WDCC Homepage 3)DLR EOWEB Zugang 4)Kostenmodell.
Rechnersysteme: Halbzeit Marcel Waldvogel. Marcel Waldvogel, IBM Zurich Research Laboratory, Universität Konstanz, , 2 Daten und Information.
SSDs im SAN – Praxisbericht Teil2 Erich Eckel Österreichische Lotterien Storage Management.
SSDs im SAN - Praxisbericht Erich Eckel Österreichische Lotterien Storage Management.
Real World Windows Azure Die Cloud richtig nutzen.
Von Eduard Dörr, Alina Wolf, Xenia Tschetschjotkin
Enterprise-Level Mail Systems Große Mailsysteme, kleine Schmerzen?
Software-RAID-5 mit Windows 2000 Professional Projektarbeit 2003.
Betriebssysteme I: Windows
Referat von Marcel Poppen & Oliver Lennartz
Windows Vista Benedikt Brütting Windows Vista 20. Juni Inhalt  Rückblick auf ältere Versionen.
SAN & NAS © Nicole Waibel Index NAS SAN Quellen
Mönchengladbach Tchibo Filial-Manager Erste Ideen.
RAID-Systeme - Standards - Leistungsmerkmal - Redundanz - Datensicherheit eine Präsentation von Jochen Throm an der Berufsakademie Mosbach.
Oracle Exadata und HP Oracle Database Machine © 2008 Oracle Corporation – Proprietary and Confidential Alfred Schlaucher (Oracle Data Warehouse) EXTREME.
Dr. Klaus Ruhlig Technology & Product Consulting Sun Microsystems, München Skalierbare Rechnerarchitekturen für ein DWH: Eine vergleichende Analyse.
Promise EX4650 & EX8650 Controller Allgemeines: – Es müssen immer Festplatten Konfiguriert werden, da ansonsten für das Betriebssystem keine Laufwerke.
Technische Universität München, Informatik XI Angewandte Informatik / Kooperative Systeme Verteilte Anwendungen: Einflußreiche Systeme Dr. Wolfgang Wörndl.
RAID Redundant Array of Independent Disks.
NetApp Alliance ProLion CEO Robert Graf
Google App Engine - Technische Stärken und Schwächen
Vorgestern, gestern und heute
Basiskomponente Bibliothek Informationsveranstaltung
Open-E JovianDSS Einführung
 Präsentation transkript:

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik1 Computing in der Hochenergiephysik Von der NorD zum Grid Rainer Mankel DESY Hamburg Dortmund, 30-Nov-2002

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik2 Übersicht Die Vergangenheit: ruhe sie in Frieden... Die Gegenwart Computing eines Collider-Experiments Wie man Commodity Hardware zähmt Massenspeicher im Petabyte-Bereich Internet-fähige Kollaborationsanwendungen Die Zukunft auf dem Grid

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik3 Computing an der UniDo vor 25 Jahren Eine IBM/370 mit 20 interaktiven Terminals (Time Sharing Option) Hollerith-Lochkartenstanzung in einer kryptischen Jobkontrollsprache (JCL) Lochkarten-Kurierservice (1x taeglich) zum Dispatcher im AVZ Turnaround 1-2 Tage Taschenrechner Lochkarte Wann konnte man nach Hause gehen? Wenn man kein privilegiertes Terminal reserviert hatte Wenn der Kurier für heute schon weg war Wenn die paar kByte Filespace voll waren (also eigentlich immer...)

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik4 Beginn einer Aera: die Nord... Ein komplettes Mainframe-System (!) für zwei Lehrstühle Betriebssystem SINTRAN-III Editor MOPS 2 Wechselplattenlaufwerke 2 Magnetbandlaufwerke (6250 dpi) CPU Leistung eines ND-500 Prozessors entspricht etwa der eines Intel 486DX4-Prozessors

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik5 Die ND (contd) geballte 300 MB Plattenspeicher ermöglichen neueste Physikresultate

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik6 Der Terminalraum: Ort des Dialogs Wer früh aufsteht, bekommt das Fullscreen-Terminal... Tippen bis der Wachhund kommt SchreibringeCut & Paste Wann konnte man nach Hause gehen? Bei FATAL ERROR FROM SWAPPER Wenn NERO oder Messerli die Maschine komplett blockierten Wenn das Wechselplattenlaufwerk im laufenden Betrieb geöffnet worden war

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik7 DESY-Computing anno Dazumal MVS3, Newlib, IPS Grafik System, Ataris mit IBM-3270-Emulation... Wann konnte man nach Hause gehen? Wenn die DESY IBM abstürzte Wenn jemand die Emulator-Diskette zum Atari verschlampt hatte Wenn jemand aus dem Experiment schon morgens (!) das CPU- Tagesbudget verprasst hatte

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik8 Computing in der Hochenergiephysik heute 50 M 200 M Events/year Interactive Data Analysis Tape storage incr TB/year ~450 Users Disk storage 3-5 TB/year Data mining MC production Data processing/ reprocessing O(1 M) detector channels

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik9 Technologien: Generelle Übergänge IRIX, HP-UX, … DM, Lit, Pta,... Mainframe, SMP Commodity hardware

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik10 Vom SMP Cluster zur PC Farm SGI Challenge XL Maschinen haben ausgedient, z.B. bei ZEUS im Frühjahr 2002 Vendor-Systeme unwirtschaftlich Commodity Komponenten

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik11 Heute: PC Farmen

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik12 Rekonstruktion mit modernen Farmen Rekonstruierte Ereignisse (pro Tag) 450 k 1.5 M 3 M 2 M Events/day

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik13 Die zweite Säule: Monte Carlo Klassische Domäne der Universitäten –im Falle H1 besonders von einer... Auch MC- Produktion profitiert von Commodity Komponenten (nach Zahlen von D. Lüke)

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik14 Commodity Computing: Fluch & Segen HERA-Experimente verwenden ca. 100 Farm-PCs pro Experiment –ca. 500 Farm-PCs bei DESY-HH Typische Lebensdauer 3-4 Jahre –1999: 350 MHz 2002: Dual 2.2 GHz Sehr wichtig: Hardware-Installationssupport Linux-Support Konsolzugang Konfigurationspflege Daß PC-Spiele und HEP-Analyseprogramme dieselbe Hardware benutzen, ist vermutlich nur ein Zwischenstadium –1U-Server ? –Systemlösungen? –Was kommt nach Linux?

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik15 Zum Vergleich: Fermilab Fermilab hat im September auf einen Schlag 434 PCs geliefert bekommen –beachtliche logistische Herausforderung: was tun wenn der Laster kommt? –wohin mit all den Kartons (Burn-in Phase), wo einstöpseln? –Abwärme Verdoppelt die Zahl der Einheiten (bei gleichbleibendem Personalstand) Auch wir müssen lernen, wie man wirklich große Systeme unterstützen kann

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik16 Commodity File Server Geänderte Paradigmen: Vergrößerung des Plattenspeichers reduziert Zahl der Zugriffe auf die Tape Library ZEUS Disk Space (Ereignisdaten): –Anfang 2000: 3 TBdavon FC+SCSI:100% –Mitte 2001: 9 TB 67% –Mitte 2002:18 TB 47% Notwendiges Wachstum war in der Form nur mit Commodity Komponenten möglich Commodity Komponenten benötigen ein Fabric das Ausfälle abfedert

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik17 The mass storage system is fundamental to the success of the experiment – Ian Bird at CHEP01 in Beijing

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik18 Massenspeicher HERA-II wird mit 1 fb integrierter Luminosität in den Petabyte-Bereich vorstoßen DESY benutzt 4 STK Powderhorn Tape Silos (miteinander verbunden) –neue Medien bieten 200 GB pro Kassette (statt 20 GB) Zugriffszeiten im Bereich < 1 min

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik19 Haben Magnetbänder eine Zukunft? Tape –100 $ pro Cartridge (200 GB), 5000 Cartridges pro Silo –100 k$ pro Silo –30 k$ pro Laufwerk (typische Anzahl: 10) 0.9 $ / GB Disk –8 k$ pro DELFI2 Server (1 TB) 8 $ / GB Beide Medien profitieren von Erhöhung der Schreibdichte An dieser Relation wird sich in näherer Zukunft nicht viel ändern optimaler Einsatz von Platten als Cache transparenter File-Zugriff (nach V. Gülzow)

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik20 Ein Cache in einem Cache in einem Cache CPU Primary Cache 2 nd Level Cache Memory Cache Disk Controller Cache Disk Tape Library Klassisches Bild 10 s Zugriffszeit

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik21 All-Cache Philosophie CPU Primary Cache 2 nd Level Cache Memory Cache Disk Controller Cache Disk Cache Tape Library Disk files sind nur Cache-Images von Dateien in der Tape Library Zugriff über einen einheitlichen Pfad, unabhängig vom Namen des Servers optimierte I/O Protokolle Fabric

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik22 d C a c h e HSM Distributed disk cache servers Analysis platform Physicists Tape Library

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik23 Tape Library d C a c h e HSM Analysis platform Eingebaute Redundanz auf allen Ebenen Bei Ausfall eines Cache Servers erfolgt automatisches Staging des angefordertes Files auf einen anderen Server (unterbrechungsfrei) Distributed disk cache servers

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik24 Analysesoftware für Kollaborationen Immer wichtiger werden Applikationen, die die Datenanalyse über das Internet hinweg ermöglichen & die beteiligten Institute besser vernetzen. Ziel: Unterschiede in der Arbeitsumgebung zwischen Beschleunigerlabor und beteiligten Instituten verschwinden Beispiel: neues ZEUS Event DisplayZeVis Idee: Internet-basierter Zugriff auf ein beliebiges von 200 Millionen Ereignissen innerhalb von Sekunden (z.B. von Bonn, Toronto, Tsukuba...) Volle Integration von 2D und 3D Grafik

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik25 ZeVis: Grafisches Interface

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik26 ZeVis: Client-Server Konzept ZeVis client application common HTTP request method event request ZES dCache (zevis01) /data z2root raw2root zesagent.root file cache Apache HTTP server ZeVis serverexperiment data

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik27 Internet-basierter Zugriff auf Online-Events downscaled event stream O(0.1 Hz) Latency O(1 min)

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik28 Verallgemeinerung: Grid-Computing Logische Fortsetzung des World Wide Web

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik29 Eine Lösung und ihr Problem? Datenmengen bei LHC

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik30 LHC (Forts.) CERN wird die Resourcen für die Rekonstruktion der Rohdaten bereitstellen, aber nur einen kleinen Teil der Analysekapazität Ausweg: Tier-Zentren (MONARC-Modell) Grid-Technologie

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik31 Monte Carlo Produktion a la Grid starke Ähnlichkeit mit ZEUS/Funnel... aber: Middleware Industriestandard

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik32 Datenanalyse a la Grid Die kBytes zu den PBytes bringen und nicht umgekehrt

30-Nov-2002R. Mankel, Von der ND zum Grid - Computing in der Hochenergiephysik33 Zusammenfassung Die rasanten technischen Fortschritte im Bereich der Computing-Technologie sind eine wesentliche Voraussetzung für den Erfolg in der Hochenergiephysik Commodity-Komponenten machen Leistung erschwinglich, benötigen aber ein spezielles Fabric mit viel Redundanz, um zuverlässig betrieben werden zu können Die Standards bei der Physikanalyse bzgl Geschwindigkeit und Zuverlässigkeit sind erheblich gestiegen Das Grid wird den Computing-Bereich weiter revolutionieren, auch über die Hochenergiephysik hinaus Wann wird man nach Hause gehen können? wenn der Resource-Broker überlastet ist wenn das eigene VO-Zertifikat abgelaufen ist wenn das Tier-Zentrum aufgrund einer DoS-Attacke lahmgelegt ist...