HPC Architekturen und Anwendungen: Anforderungen und Notwendigkeiten Erich Strohmaier University of Tennessee
Architekturen und Anwendungen Rechnerarchitekturen Datenstrukturen Generationswechsel von Architekturen Kriterien für Markterfolg Der Wandel des HPC Marktes
Rechnerarchitekturen und Datenstrukturen Datenaustausch und Granularität Systembalance Speichereinfluß Skalierungsverhalten
Architekturen Vektorrechner mit eng gekoppeltem Hauptspeicher - PVP. Symmetrische Multiprozessor Systeme -SMP Massiv Parallele Systeme - MPP. Cluster von Systemen. Network of Workstations - NOW.
Datenaustausch PVP SMP MPP Cluster NOW 10 100 1000 10000 >100000 Zeiten für Datenaustausch in Prozessorzyklen PVP SMP MPP Cluster NOW 10 100 1000 10000 >100000
Algorithmen Fein <100 Mittel 1000 Grob 10000 Sehr grob 100000 Granularität in Operationen pro Datenaustausch Fein <100 Mittel 1000 Grob 10000 Sehr grob 100000 EP 1000000
Granularitäts Nomograph Anwendungs- Granularität [Operationen] Für 50% parallele Effizienz Datenzugriffszeit [s] Prozessor- Geschwindigkeit [MFlop/s]
Datenstrukturen Struktur des Datenaustausch wenige große - viele kleine reguläre - irreguläre Verteilung der Adressen kurz- oder langreichweitige Kommunikation Globale Synchronizationspunkte
Systembalance Prozessorgeschwindigkeit Hauptspeicher Ein-/Ausgabe Kapazität Verbindungsnetzwerke Topologie Leistung
Einfluß des Hauptspeichers Beispiel: Lösung einer partiellen Differentialgleichung mit einem Domain Decomposition Verfahren: Rechenaufwand: n³ Kommunikation: n² Granularität: /n
Skalierungsverhalten Genauere Skalierungsanalyse beinhaltet: serielle Berechnungsanteile paralleler Overhead: (p-1) ... t(p,n) = n³ + n² + (p-1)
Skalierungsanalyse t(p,n) = n³ + n² + (p-1) 3 Konstante Problemgröße: N = np = const
Skalierungsanalyse t(p,n) = n³ + n² + (p-1) Konstanter Speicherverbrauch pro Prozessor: n = const
Skalierungsanalyse t(p,n) = n³ + n² + (p-1) Konstante Rechenzeit pro Zeitschritt: t(p,n) = const
Skalierungsverhalten Durch Vergrößern der Problemgröße pro Prozessor läßt sich das Skalierungsverhalten verbessern. Gordon Bell (1993): “Mit genug Hauptspeicher und Mühe läßt sich (fast) jedes parallele Problem so skalieren, daß es auf (fast) jedem beliebigen parallelem Computer abläuft.
Generationswechsel von parallelen Systemen Wie ändert sich Systembalance? Moore’s Law Prozessorgeschwindigkeit in der TOP500 Auswirkung auf Granularität Skalierungseigenschaften
Generationswechsel von parallelen Systemen: Moore’s Law Die Zahl der Transistoren pro Chip wächst pro Jahr um 60%. Damit wachsen Prozessorgeschwindigkeit Hauptspeicher ebenfalls um 60% pro Jahr.
Performance in der TOP500
Performance in der TOP500
Granularität Konvergenzgeschwindigkeit: n Hauptspeicher : n³ r 4
Markterfolg Beobachtungen: Die meisten Firmen scheiterten. Leistung ist keine Garantie für den Erfolg eines Systems. Selbst Systeme die nicht absolute Spitzenleistungen erbringen, können sehr erfolgreich sein.
Markterfolg Gründe für ein Scheitern: Unreife oder instabile Hardware und OS. Design Fehler bei Coprozessoren und Peripherie. Design Sprünge bei Generationswechsel. Ultra massive Architekturen mit ungenügender Knotenleistung.
Markterfolg Gründe für ein Scheitern: Entwicklung eigener Prozessoren. Zu langsame Ablösung von System Generationen. Fehlende Anwendungspakete.
Skalierungsanforderungen Größe Generationen und Technologie Code und Problem Raum Anwendungskompatibiltät
Der Wandel des HPC Markts Cray1: Konkurrenzlose Klasse von Rechnern. Leistungsfähig getrennt von anderen Rechnerklassen. Leistung war ein ausschlaggebendes Verkaufsargument. “High-Tech” zahlte sich aus.
Der Wandel des HPC Markts Heute: Breite Konkurrenz verschiedener Konzepte. Leistungskontinuum vom PC zum HPC System. Andere Kriterien als Leistung sind wichtig eventuell sogar ausschlaggebend. “High-Tech” kann schnell zum Hemmschuh werden.