M. Feindt, U.Kerzel, Th. Kuhr, M. Milnik, T. Müller, G. Quast Universität Karlsruhe Grid-computing bei CDF.

Slides:



Advertisements
Ähnliche Präsentationen
Be.as WEB Technologie
Advertisements

E-Commerce Shop System
E-HRM Electronic Human Resource Management
für das Schulnetz der BS Roth
PADLR Submodul Modular Content Archives Ein Content Browser für Lehr- materialien aus der Elektrotechnik Dipl.-Ing. Mark Painter Institut für Nachrichtentechnik.
CD-ROMs im Netz Direkter Zugriff auf CD-ROMs via Web-Browser Hartmut Jörg.
Authentifizierung, Autorisierung und Rechteverwaltung Einsatz und Funktion des Rechteservers 2. Shibboleth-Workshop Freiburg, 23. März 2006 Gerald Schupfner,
MS Office-Paket: Access
SAP R/3 - Speichermanagement
Objektrelationales Mapping mit JPA Testing Jonas Bandi Simon Martinelli.
On a Buzzword: Hierachical Structure David Parnas.
Online Monitoring bei CDF für Run II (2001) T. Arisawa 2, A. Heiss 1, G. Barker 1, M. Feindt 1, F. Hartmann 1, Kouji Ikado 2, Kaori Maeshima 3, S. Menzemer.
Günter Quast Karlsruhe, 4. Oktober 2004 Institut für experimentelle Kernphysik 1 Die großen Zukunftsprojekte: Der Large Hadron Collider (LHC) und ein Elektron-Positron-Linearbeschleuniger.
Suche nach anomaler Produktion von
Markplätze für Agenten Seminar Softwareagenten Timo Hoelzel.
Einsatz des Level-1-Kalorimeter-Trigger Jet/Energiesummen-Moduls bei ATLAS Teststrahlmessungen am CERN.
Studiengang Informatik FHDW
Compound Graphen und hierarchisches Layout
Access 2000 Datenbanken.
Projekt Web Engineering
Fli4l Der Ein-Disketten-Router von Sebastian Röhl von Sebastian Röhl.
1 Grid Computing Centre Karlsruhe (GridKa) Juli 2001: Anforderungspapier der 8 Nutzergruppen ATLAS, CMS, ALICE, LHCb, CDF, D0, BaBar, Compass mit Kapazitätsbedarf.
2. IT-Klausurtagung 2. Tag Neues beginnen Oktober 2002 in Ludwigslust.
AkadOR W. Wagner, Didaktik der Chemie, Universität Bayreuth Sicherung auf HD: Beschreibung z.B. HD 500 GB: 1.Partition 1: Laufwerk C:, ca. 250GB Inhalt:
ENOVIA SmarTeam CATIA Integration
Christian Steinle, Joachim Gläß, Reinhard Männer
Referat zum Thema „DLL“
Distributed Multimedia Control Steuerung und Überwachung von Präsentationen in Netzwerken.
Datenmodelle, Datenbanksprachen und Datenbankmanagementsysteme
Netzwerke Peer-to-Peer-Netz Client-Server Alleinstehende Server
Ordner- und Dateistrukturen in Windows 7 (Teil 1)
Datagrid in Earth System Sciences (DGESS) - Integration und Erweiterungen - Projektreffen am Max-Planck-Institut für Meteorologie Heinrich Widmann 28.
Julia Rieß, Jan-Hendrik Prinz, Matthias Reddemann
Alle arbeiten an Prozessketten. Wir bringen Sie ans Ziel.
SKALIERBARE HARDWARE UNABHÄNGIGE LÖSUNGEN FÜR HSM, ARCHIVIERUNG UND SICHEREN DATENAUSTAUSCH YOUR DATA. YOUR CONTROL.
Präsentation von: Tamara Nadine Elisa
Praxisbericht über den zielgerichteten Einsatz von Marketingsystemen
Systeme 1 Kapitel 4 Prozesse WS 2009/10.
Betriebssysteme allgemein
Service Design by EstherKnaus® Der Benchmark für Dienstleistungen
Systemaufbau / Komponenten
Typo 3. INSTALLATION TYPO3 INSTALLTOOL EXTENSIONS UND TEMPLATES INSTALLATION TEMPLAVOILA USERMANAGEMENT Inhalt:
Nicolas Frings Maximilian Bernd Stefan Piernikarcyk
Universität Zürich Informatikdienste GoKoordinatorenmeeting 27. April UZH Global Storage Projekt.
Datenbanken und Datenmodellierung
HORIZONT 1 SmartJCL ® Der einfache Weg zur fehlerfreien JCL HORIZONT Software für Rechenzentren Garmischer Str. 8 D München Tel ++49(0)89 / 540.
26. April Perspektiven einer Nachlass- und Autographenkatalogisierung im österreichischen Bibliothekenverbund Walter Zabel
8. Mai Perspektiven einer Nachlass- und Autographenkatalogisierung im österreichischen Bibliothekenverbund.
FME Server als multidimensionale Rasterdatendrehscheibe
Maximale Sicherheit für PC-Systeme. Was ist der PC-Sheriff 2000? Wie funktioniert der PC-Sheriff 2000? Warum PC-Sheriff 2000? Desktop-Probleme Vorteile.
ICT – Modul Dokumentenverwaltung
Informationsdienste Torsten Rathmann (Deutsches Klimarechenzentrum, Hamburg) Workshop: Virtuelle Forschungsumgebungen aufbauen – mit D-Grid Abstract: Thema.
Rechnersysteme: Halbzeit Marcel Waldvogel. Marcel Waldvogel, IBM Zurich Research Laboratory, Universität Konstanz, , 2 Daten und Information.
ADAT©2004 Dipl. - Ing. Walter SabinSeite: 19 Version 1.0a Programme - Zusatzsoftware Oracle: –Forms –Reports –Designer –Jdeveloper –APEX (Application Express)
W-LAN Was ist W-LAN? Kablellose Übertragung – Die Geschichte
Dedizierte Systeme Typo3 Installation Dedizierte Systeme – Typo3 Installation – Christoph Stollwerk IT Zertifikat der Philosophischen Fakultät WS 2008/2009.
Kursdokumentenmanagement. Inhalt Zielgruppe Anwendungs- breiche Vorteile der Lösung Kosten Testen der Software Funktionsweise und Voraus- setzungen Anwendungs-
Maximale Sicherheit für PC-Systeme.
Information Rights Management Nutzen und Grenzen Daniel Schnyder.
->Prinzip ->Systeme ->Peer – to – Peer
Central Processing Unit (Zentraleinheit)
Datenbanken im Web 1.
CMS Kirsten Kropmanns Dedizierte Systeme 16. März 2009.
Middleware in Java vieweg 2005 © Steffen Heinzl, Markus Mathes Kapitel 1: Architektur verteilter Systeme.
PVM – Parallel Virtual Machine Michael Springmann.
Drei Möglichkeiten zum Betrieb von DPV über das Internet Dr. Matthias Grabert und Walter Geiselmann Uni Ulm.
IWR Ideen werden Realität Forschungszentrum Karlsruhe in der Helmholtz-Gemeinschaft Institut für Wissenschaftliches Rechnen GridKA Database Status Dr.
CMIP6-DICAD – FU Berlin Thomas Schartner
WS2016: Container von A bis Z
Der einfache Weg zur fehlerfreien JCL
 Präsentation transkript:

M. Feindt, U.Kerzel, Th. Kuhr, M. Milnik, T. Müller, G. Quast Universität Karlsruhe Grid-computing bei CDF

März 2006Michael Milnik - DPG Dortmund2 Warum Grid bei CDF Wachsende Datensätze Simulation: offizielle und private (re-)Prozessieren der Daten ! Eine große, zentrale Farm reicht nicht mehr ! Signifikante Resourcen außerhalb vom Fermilab Aber: Datennahme läuft schon lange Design-, Entwicklungs- und Testphase gleichzeitig Benutzer nicht an Grid-Entwicklung interessiert

März 2006Michael Milnik - DPG Dortmund3 CDF Resourcen siteCPU/GHzdisk/TB CAF (FNAL) Italy48032 Korea Taiwan San Diego Rutgers Toronto Japan Spain501.5 MIT GridKa215(4270)40.0/80.0

März 2006Michael Milnik - DPG Dortmund4 Grid Grundidee: Benutzer gibt vor: Programm, Datensatz, etc. Benutzer bekommt:ntuple, Plots, etc. ! Grid kümmert sich um den Rest: wo am besten gerechnet wird Datenbereitstellung etc. Analogie zum Stromnetz: versteckte Komplexität vor Benutzern

März 2006Michael Milnik - DPG Dortmund5 Weg zum Grid für CDF Ansatz: Starte mit funktionierendem Systemen und migriere zum Grid Central Analysis Farm: CAF ausserhalb FNAL: MC Production Klon der CAF falls 100% CDF Resourcen Migration: 1. SAM: zum Verwalten der Daten 2. Frontier: zur Entlastung der DB 3. GlideCAF: CAF Interface, aber weltweit einsetzbar

März 2006Michael Milnik - DPG Dortmund6 Beispiel GridKa GridKa: Deutsches Grid Kompetenzzentrum 8 Experimente (LHC, BaBar, Tevatron, Compass) Tier1 für LHC, TierA für BaBar 1 Vorrechner/Ex., Farm für alle Vorteil: Freie Resourcen können von anderen Experimenten genutzt werden (z.B. zwischen LHC data- challenges) Aber: nur bei gleichem Aufbau der Farm für alle möglich nominell Beispiel

März 2006Michael Milnik - DPG Dortmund7 SAM Sequential Access via Metadata = SAM einzelner Datensatz enthält viele tausende Dateien ! automatisches System SAM: Metadaten steuern Auswahl der Daten transferiert Daten zum Job Integriert in CDF Analyseumgebung AC++ (auch Python-, shell-, ROOT- und C++Interface)

März 2006Michael Milnik - DPG Dortmund8 : SAM SAM verwaltet Datenzugriffe: langsame Bänder via dCache schnelle Zugriffe via Netzwerk auf Festplatten automatisches Kopieren automatisches Speichern importierte Datensätze auf Band unabhängiger vom FNAL komplette Analyse am GridKa: Quanten Zahlen des X(3872)

März 2006Michael Milnik - DPG Dortmund9 : Frontier Jeder CDF Job kontaktiert zentrale DB (Kalibration, etc) ! Latenzzeiten, etc. verlangsamen Analysen ! Datenbank Proxy: Frontier basierend auf Squid: Web Proxy Cache lokaler Cache: keine Verbindung zum FNAL nötig einfache Installation und Betrieb im userspace ! sehr gute Erfahrung bei CDF trotz späterer Integration ! Weiterentwicklung und Integration bei LHC

März 2006Michael Milnik - DPG Dortmund10 : GlideCAF Letzter Schritt zum Grid: GlideCAF GlideCAF genauso zu benutzen wie CAF Enduser bemerkt kaum einen Unterschied CAF kein Cluster mehr, nur noch Portal Globus Tools des lokalen Clusters werden genutzt Job startet auf WN via Condor Glide-Ins ! keine spezielle Installation im Cluster nötig, nur ein Portal

März 2006Michael Milnik - DPG Dortmund11 : GlideCAF 1. Job startet auf WN 2. Condor deamon wird gestartet 3. Deamon meldet sich zurueck ! WN wird Teil des Condor Pools 4. Job wird geladen und ausgeführt Glide-Ins:

März 2006Michael Milnik - DPG Dortmund12 Zusammenfassung CDF Gruppe am GridKa entwickelt sich mit dem Experiment ¼ 500TB Daten analysiert SAM seit über 2 Jahren im Produktionsbetrieb Frontier seit über einem Jahr in Benutzung GlideCAF wird gerade aufgesetzt CDF hat signifikante Resourcen ausserhalt FNAL: GridKA und Italien am aktivsten CDF hat sich vom zentralen System zum Grid während es läuft entwickelt. Physik Analysen sind nicht mehr ans FNAL gebunden