HPC Architekturen und Anwendungen: Anforderungen und Notwendigkeiten

Slides:



Advertisements
Ähnliche Präsentationen
Memetische Algorithmen …der Versuch einer Einordnung
Advertisements

E-Commerce Shop System
Sicherheits-Regelungen Taschen, Mäntel, Fotoapparate etc. in die Garderobenschränke Dauer: 20 Minuten, keine Möglichkeit, vorzeitig zu verlassen Keine.
Parallel and Cluster Computing
Datenverarbeitung Mitschrift vom
Einschätzskalen.
PC-Cluster.
Harmonisierung von Ontologien Martin Zobel. Was versteht man in der Informatik unter einer Ontologie? Wikipedia: Unter Ontologie versteht man in der Informatik.
Anwendungsverteilung und räumliche Ausdehnung
Enno Rehling und Roger Butenuth, Uni-GH Paderborn: Arminius: Software für Linux-basierte SCI-Cluster Arminius: Software für Linux-basierte SCI-Cluster.
Das Gigabit-Wissenschaftsnetz Technisch-betriebliche Aspekte K. Ullmann, DFN-Verein Düsseldorf,
Erschließen von semantischen Referenzen mit Ontology-Reasoning-Werkzeugen Das Ziel dieser Masterarbeit war die Erweiterung des ORBI Systems um ein Inferenz-System.
W. Oberschelp G. Vossen Kapitel 7.
Studiengang Informatik FHDW
1 Inhaltsverzeichnis 1. Einleitung 1.1 Architektur von IV-Systemen 1.2 Anwendungsbeispiel OMNIS/Myriad 1.3 Vorlesungsziel 1.4 Abbildung E/R und objektorientierte.
APO-Überblick Philosophie [Mike Hummel] Architektur [Jörg Schuberth]
Vorlesung 2 Rechnerarchitektur Peter B. Ladkin Wintersemester 2001/2002 Universität Bielefeld Technische Fakultät.
Synchronisation paralleler Transaktionen AIFB SS Synchronisationsverfahren 4.4 Synchronisationsverfahren (1/18) Sperrmodi und Sperrobjekte Sperrprotokoll.
LINUX&NT/ Konkurrenz &Kooperation Dürrenweid Professur systeme Betriebs- CheOpS 1 LINUX & Windows NT - Konkurrenz & Kooperation Historie Konfiguration.
Was sind Cluster und wie sind sie aufgebaut
Referat zum Thema „DLL“
Marcel Riedel, Marcus Zelend, Danny Christl
Rechneraufbau & Rechnerstrukturen, Folie 13.1 © W. Oberschelp, G. Vossen W. Oberschelp G. Vossen Kapitel 13.
Datagrid in Earth System Sciences (DGESS) - Integration und Erweiterungen - Projektreffen am Max-Planck-Institut für Meteorologie Heinrich Widmann 28.
Entwicklung verteilter eingebetteter Systeme - Einführung
Harms Supercomputing Consulting
Urteilen zwischen Intuition und Reflexion
Entwicklung verteilter Anwendungen I, WS 13/14 Prof. Dr. Herrad Schmidt WS 13/14 Kapitel 4 Folie 2 Message Passing mittels Sockets (1) s.a.
Clustered Neuronal Network A C#.NET project for Compute Cluster Server 2003.
F.Ladstätter und R.Elsässer VP Wissenschaftliches Arbeiten und Präsentation 13. Dezember 2001.
Mehrrechner-Datenbanksysteme
Massstabsberechnung 6. Klasse
Lizenz zum Forschen = 1 Euro Microsoft ® High Performance Computing-Programm für Bildungs- und Forschungseinrichtungen.
Übergangregelung BSc Reglement 03 – Reglement 08 Judith Zimmermann Studienberaterin D-INFK CAB E15.1 ETH Zürich
DW-Architektur: Row Store vs Column Store
Volumenorientierte Modellierung als Grundlage einer vernetzt- kooperativen Planung im konstruktiven Ingenieurbau Antragsteller: Prof. E. Rank, Prof. H.-J.
Bachelor-/Masterstudium am Departement Informatik Judith Zimmermann Denise Spicher.
Wichtige Errungenschaften
Strukturierter Entwurf (und Realisierung)
LV-Programm der BBWL „Wirtschaftsinformatik“
Vorlesung Datenbanksysteme vom Physische Datenorganisation
OSI- MODELL 7 Schichten Gruppe : WRJ.
ADAT©2010 Dipl. - Ing. Andrea SabinSeite: 1 Version 1.0c Adat Semester 1.
09 DW Zukunftspreis der Immobilienwirtschaft Profession fürs Wohnen BBU Verband Berlin-Brandenburgischer Wohnungsunternehmen e.V. 09 DW Zukunftspreis der.
Multiprozessoren: Herausforderung für die Software
Externspeicher- Algorithmen Petra Mutzel Technische Universität Wien Institut für Computergraphik und Algorithmen Algorithmen und Datenstrukturen 2.
Linpack Benchmark Dient zur Performance Messung verschiedener Rechnerarchitekturen. Entstammt dem Linpack Projekt von 1979, der Autor Jack Dongarra ist.
JOMP
Einführung in Optimierungsprobleme auf modernen Rechnerarchitekturen
Magisterstudium Scientific Computing Institut für Scientific Computing Infoveranstaltung Masterstudium Scientific Computing.
Ressourcenalgebra. Eine alternative Grundlegung der Rechnerarchitektur 1. Einführung.
1 Mehrrechner- Datenbanksysteme Grundlegende Architekturen Anfragebearbeitungstechniken.
Clustering Clustering mit openMosix von Christian Wiese Stefan Krause.
University of Würzburg Informatik III (Distributed Systems) Prof. Dr. P. Tran-Gia www3.informatik.uni-wuerzburg.de Towards Efficient Simulation of Large.
Jahrgang 9 G- Kurs Zehnerpotenzen
Software Engineering SS04 Paralleles Programmieren FH Aachen, Prof. Dr.-Ing. Michael Trautwein Andrej Kühnal, Perez-Otuno Rodrigo.
Institute for Software Science – University of ViennaP.Brezany Parallele und verteilte Systeme Peter Brezany Institut für Softwarewissenschaften Universität.
Rechnerstrukturen Rechnerarchitektur von Intel 8088 BIT WiSe , Referent: Euvhen Berlev.
Hadoop-as-a-Service (HDaaS)
1 2nd Review, 13. Oktober 2000, Dortmund BMBF: IR 803 Erweitertes DSMS Lars-Olof Burchard.
Parallelising Molecular Dynamics for Message Passing Systems (complete) Martin Gerber
4) Kaufmännische Realisierung
Digitaler Wandel Dr. Tanja Rückert
Dr. Klaus Ruhlig Technology & Product Consulting Sun Microsystems, München Skalierbare Rechnerarchitekturen für ein DWH: Eine vergleichende Analyse.
NEMO – Jahrestagung des BMWi Fördermodul ZIM-NEMO: Bericht aus der Jury-Arbeit Dr. Kurt Hornschild 30. Juni 2009 in der Urania.
Alfred Schlaucher, Data Warehouse Architect, Oracle Oracle Data Warehouse.
Ein kleiner (Ein|Über)blick
Shared Memory Programmierung: Grundlagen
 Präsentation transkript:

HPC Architekturen und Anwendungen: Anforderungen und Notwendigkeiten Erich Strohmaier University of Tennessee

Architekturen und Anwendungen Rechnerarchitekturen Datenstrukturen Generationswechsel von Architekturen Kriterien für Markterfolg Der Wandel des HPC Marktes

Rechnerarchitekturen und Datenstrukturen Datenaustausch und Granularität Systembalance Speichereinfluß Skalierungsverhalten

Architekturen Vektorrechner mit eng gekoppeltem Hauptspeicher - PVP. Symmetrische Multiprozessor Systeme -SMP Massiv Parallele Systeme - MPP. Cluster von Systemen. Network of Workstations - NOW.

Datenaustausch PVP SMP MPP Cluster NOW 10 100 1000 10000 >100000 Zeiten für Datenaustausch in Prozessorzyklen PVP SMP MPP Cluster NOW 10 100 1000 10000 >100000

Algorithmen Fein <100 Mittel 1000 Grob 10000 Sehr grob 100000 Granularität in Operationen pro Datenaustausch Fein <100 Mittel 1000 Grob 10000 Sehr grob 100000 EP 1000000

Granularitäts Nomograph Anwendungs- Granularität [Operationen] Für 50% parallele Effizienz Datenzugriffszeit [s] Prozessor- Geschwindigkeit [MFlop/s]

Datenstrukturen Struktur des Datenaustausch wenige große - viele kleine reguläre - irreguläre Verteilung der Adressen kurz- oder langreichweitige Kommunikation Globale Synchronizationspunkte

Systembalance Prozessorgeschwindigkeit Hauptspeicher Ein-/Ausgabe Kapazität Verbindungsnetzwerke Topologie Leistung

Einfluß des Hauptspeichers Beispiel: Lösung einer partiellen Differentialgleichung mit einem Domain Decomposition Verfahren: Rechenaufwand: n³ Kommunikation: n² Granularität: /n

Skalierungsverhalten Genauere Skalierungsanalyse beinhaltet: serielle Berechnungsanteile paralleler Overhead: (p-1) ... t(p,n) = n³ + n² + (p-1)

Skalierungsanalyse t(p,n) = n³ + n² + (p-1) 3 Konstante Problemgröße: N = np = const

Skalierungsanalyse t(p,n) = n³ + n² + (p-1) Konstanter Speicherverbrauch pro Prozessor: n = const

Skalierungsanalyse t(p,n) = n³ + n² + (p-1) Konstante Rechenzeit pro Zeitschritt: t(p,n) = const

Skalierungsverhalten Durch Vergrößern der Problemgröße pro Prozessor läßt sich das Skalierungsverhalten verbessern. Gordon Bell (1993): “Mit genug Hauptspeicher und Mühe läßt sich (fast) jedes parallele Problem so skalieren, daß es auf (fast) jedem beliebigen parallelem Computer abläuft.

Generationswechsel von parallelen Systemen Wie ändert sich Systembalance? Moore’s Law Prozessorgeschwindigkeit in der TOP500 Auswirkung auf Granularität Skalierungseigenschaften

Generationswechsel von parallelen Systemen: Moore’s Law Die Zahl der Transistoren pro Chip wächst pro Jahr um 60%. Damit wachsen Prozessorgeschwindigkeit Hauptspeicher ebenfalls um 60% pro Jahr.

Performance in der TOP500

Performance in der TOP500

Granularität Konvergenzgeschwindigkeit:  n Hauptspeicher :  n³  r 4

Markterfolg Beobachtungen: Die meisten Firmen scheiterten. Leistung ist keine Garantie für den Erfolg eines Systems. Selbst Systeme die nicht absolute Spitzenleistungen erbringen, können sehr erfolgreich sein.

Markterfolg Gründe für ein Scheitern: Unreife oder instabile Hardware und OS. Design Fehler bei Coprozessoren und Peripherie. Design Sprünge bei Generationswechsel. Ultra massive Architekturen mit ungenügender Knotenleistung.

Markterfolg Gründe für ein Scheitern: Entwicklung eigener Prozessoren. Zu langsame Ablösung von System Generationen. Fehlende Anwendungspakete.

Skalierungsanforderungen Größe Generationen und Technologie Code und Problem Raum Anwendungskompatibiltät

Der Wandel des HPC Markts Cray1: Konkurrenzlose Klasse von Rechnern. Leistungsfähig getrennt von anderen Rechnerklassen. Leistung war ein ausschlaggebendes Verkaufsargument. “High-Tech” zahlte sich aus.

Der Wandel des HPC Markts Heute: Breite Konkurrenz verschiedener Konzepte. Leistungskontinuum vom PC zum HPC System. Andere Kriterien als Leistung sind wichtig eventuell sogar ausschlaggebend. “High-Tech” kann schnell zum Hemmschuh werden.