Präsentation herunterladen
Die Präsentation wird geladen. Bitte warten
Veröffentlicht von:Erhard Heitzmann Geändert vor über 10 Jahren
1
HPC Architekturen und Anwendungen: Anforderungen und Notwendigkeiten
Erich Strohmaier University of Tennessee
2
Architekturen und Anwendungen
Rechnerarchitekturen Datenstrukturen Generationswechsel von Architekturen Kriterien für Markterfolg Der Wandel des HPC Marktes
3
Rechnerarchitekturen und Datenstrukturen
Datenaustausch und Granularität Systembalance Speichereinfluß Skalierungsverhalten
4
Architekturen Vektorrechner mit eng gekoppeltem Hauptspeicher - PVP.
Symmetrische Multiprozessor Systeme -SMP Massiv Parallele Systeme - MPP. Cluster von Systemen. Network of Workstations - NOW.
5
Datenaustausch PVP SMP MPP Cluster NOW 10 100 1000 10000 >100000
Zeiten für Datenaustausch in Prozessorzyklen PVP SMP MPP Cluster NOW 10 100 1000 10000 >100000
6
Algorithmen Fein <100 Mittel 1000 Grob 10000 Sehr grob 100000
Granularität in Operationen pro Datenaustausch Fein <100 Mittel Grob Sehr grob EP
7
Granularitäts Nomograph
Anwendungs- Granularität [Operationen] Für 50% parallele Effizienz Datenzugriffszeit [s] Prozessor- Geschwindigkeit [MFlop/s]
8
Datenstrukturen Struktur des Datenaustausch
wenige große - viele kleine reguläre - irreguläre Verteilung der Adressen kurz- oder langreichweitige Kommunikation Globale Synchronizationspunkte
9
Systembalance Prozessorgeschwindigkeit Hauptspeicher
Ein-/Ausgabe Kapazität Verbindungsnetzwerke Topologie Leistung
10
Einfluß des Hauptspeichers
Beispiel: Lösung einer partiellen Differentialgleichung mit einem Domain Decomposition Verfahren: Rechenaufwand: n³ Kommunikation: n² Granularität: /n
11
Skalierungsverhalten
Genauere Skalierungsanalyse beinhaltet: serielle Berechnungsanteile paralleler Overhead: (p-1) ... t(p,n) = n³ + n² + (p-1)
12
Skalierungsanalyse t(p,n) = n³ + n² + (p-1)
3 Konstante Problemgröße: N = np = const
13
Skalierungsanalyse t(p,n) = n³ + n² + (p-1)
Konstanter Speicherverbrauch pro Prozessor: n = const
14
Skalierungsanalyse t(p,n) = n³ + n² + (p-1)
Konstante Rechenzeit pro Zeitschritt: t(p,n) = const
15
Skalierungsverhalten
Durch Vergrößern der Problemgröße pro Prozessor läßt sich das Skalierungsverhalten verbessern. Gordon Bell (1993): “Mit genug Hauptspeicher und Mühe läßt sich (fast) jedes parallele Problem so skalieren, daß es auf (fast) jedem beliebigen parallelem Computer abläuft.
16
Generationswechsel von parallelen Systemen
Wie ändert sich Systembalance? Moore’s Law Prozessorgeschwindigkeit in der TOP500 Auswirkung auf Granularität Skalierungseigenschaften
17
Generationswechsel von parallelen Systemen: Moore’s Law
Die Zahl der Transistoren pro Chip wächst pro Jahr um 60%. Damit wachsen Prozessorgeschwindigkeit Hauptspeicher ebenfalls um 60% pro Jahr.
18
Performance in der TOP500
19
Performance in der TOP500
20
Granularität Konvergenzgeschwindigkeit: n Hauptspeicher : n³ r
4
21
Markterfolg Beobachtungen: Die meisten Firmen scheiterten.
Leistung ist keine Garantie für den Erfolg eines Systems. Selbst Systeme die nicht absolute Spitzenleistungen erbringen, können sehr erfolgreich sein.
22
Markterfolg Gründe für ein Scheitern:
Unreife oder instabile Hardware und OS. Design Fehler bei Coprozessoren und Peripherie. Design Sprünge bei Generationswechsel. Ultra massive Architekturen mit ungenügender Knotenleistung.
23
Markterfolg Gründe für ein Scheitern: Entwicklung eigener Prozessoren.
Zu langsame Ablösung von System Generationen. Fehlende Anwendungspakete.
24
Skalierungsanforderungen
Größe Generationen und Technologie Code und Problem Raum Anwendungskompatibiltät
25
Der Wandel des HPC Markts
Cray1: Konkurrenzlose Klasse von Rechnern. Leistungsfähig getrennt von anderen Rechnerklassen. Leistung war ein ausschlaggebendes Verkaufsargument. “High-Tech” zahlte sich aus.
26
Der Wandel des HPC Markts
Heute: Breite Konkurrenz verschiedener Konzepte. Leistungskontinuum vom PC zum HPC System. Andere Kriterien als Leistung sind wichtig eventuell sogar ausschlaggebend. “High-Tech” kann schnell zum Hemmschuh werden.
Ähnliche Präsentationen
© 2024 SlidePlayer.org Inc.
All rights reserved.