GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI-Praxis Kollektive Operationen Oswald Haan

Slides:



Advertisements
Ähnliche Präsentationen
Die Installation von Windows 95 erfordert etwas Vorarbeit: Als erstes müssen Sie mit einer Windows 95 Startdiskette den Computer booten.... Dabei wird.
Advertisements

Message Passing Interface (MPI)
Datenparallele Algorithmische Skelette in Muesli
DGC 1. 2 Motivation x new(x) delete(x) Speicher DGC 3 Inhalt Einführung GC / DGC Der ideale DGC Algorithmen Zusammenfassung.
C Tutorium – Fehlerbehandlung – Knut Stolze. 2 Grundsatz Also ist auch nach jedem Funktionsaufruf auf Fehler zu prüfen!! Jeder(!) Funktionsaufruf kann.
2. Programmstruktur – Teil 2
eXist Open Source Native XML Database
Java: Grundlagen der Sprache
Funktionen.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27 – Kürzeste Wege) Prof. Th. Ottmann.
Fuzzy-Logik und unscharfe Mengen
Universität zu Köln Historisch-Kulturwissenschaftliche Informationsverarbeitung Kapitel 12: „Variablen und Konstanten verwenden und Spiele.
OpenMP Präsentation im Rahmen des Seminars
Imperative Programmierung
Otto-von-Guericke-Universität MagdeburgGamal Kassem Übung 7 Reports mit Datenbankzugriff.
Vorlesung 9.2: Specification Universität Bielefeld – Technische Fakultät AG Rechnernetze und verteilte Systeme Peter B. Ladkin
Excel Kurs Teil I Excel starten, Verknüpfungen auf dem Desktop anlegen. F. Bäumer.
Die Nutzung und Erstellung von WebQuests im Englischunterricht.
Tabellenkalkulationssysteme
Der Explorer Programm, das das Inhaltsverzeichnis des Computers anzeigt Heinz Reinlein/ 2001.
Was versteht man unter XML Schema?
Papierlose Steuererklärung
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI-Praxis Einführung Oswald Haan
Aufgabe 1: Fügen Sie unten eine Foto zum Thema «Team» ein (Einfügen / ClipArt). Verwenden Sie nach Möglichkeit auch die Suche via Internet in Office.com.
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI Punkt-zu-Punkt-Kommunikation Oswald Haan
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI Eine Einführung Oswald Haan
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI Allgemeine Datentypen Oswald Haan
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI-Praxis Kollektive Operationen Oswald Haan
GWDG – Kurs Parallelrechner-Programmierung mit MPI – Oswald Haan
Firma wählen. Neue Mitteilung eingeben Daten eingeben Leeres Formular.
Methode der kleinsten Quadrate
C. Boehme, O. Haan, U. Schwardmann GWDG Übungen II Programmierung von Parallelrechnern.
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI-Praxis Kollektive Operationen Oswald Haan
Fügen Sie unten einen Clip zum Thema „Team“ ein.
3. Text Titel erfassen und festlegen Weiteren Text den Folien zuweisen Text ordnen.
SQL - Structured Query Language AIFB SS (1/9) Join-Operationen in SQL-92(1/9) Syntax einer Join-Operation: join-op := CROSS JOIN | [NATURAL]
Objekte Objekte sind Elemente, die man mit dem Programm bearbeiten kann. Datei, aufgebaut als Tabelle (Relation) Datensatz, entspricht einer Zeile der.

Mag. Andreas Starzer weloveIT – EDV Dienstleistungen
Titelzeile anklicken und ersetzen
Agenda für heute, 28. April, 2005 Strukturierte VariablenStrukturierte Variablen Arrays.
Rechnersysteme: Halbzeit Marcel Waldvogel. Marcel Waldvogel, IBM Zurich Research Laboratory, Universität Konstanz, , 2 Daten und Information.
Systemsoftware und Betriebssysteme
JAVA/DSM A Platform for Heterogeneous Computing Serge F. Possono M. Technische Universität Muenchen (TUM) Lehr- und Forschungseinheit Informatik X Rechnertechnik.
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI Kollektive Operationen Oswald Haan
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI Punkt-zu-Punkt-Kommunikation Oswald Haan
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI-Praxis Kollektive Operationen Oswald Haan
Erste Schritte am PC EDV Kurs für Senioren.
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI Kollektive Operationen Oswald Haan
C. Boehme, O. Haan, U. Schwardmann GWDG Übungen II Programmierung von Parallelrechnern.
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI Eine Einführung
Parallele Programmierung im.NET Framework Darmstadt, Präsentation am Beispiel von C-Sharp (C#)  Wichtige Grundlagen  Generika, Delegate, Lambda,
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI-Praxis Einführung Oswald Haan
So nutzen Sie die Powerpoint-Datei:
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI-Praxis Punkt-zu-Punkt-Kommunikation Oswald Haan
1 Tagesüberblick 7 Lösung Hausaufgabe/Fragen mehrdimensionale Datenstrukturen Module Fehlersuche Zusammenfassung Feedback.
PERL Eike Busse2 Gliederung 1.Einleitung 2.Geschichte 3.Eigenschaften/Merkmale von Perl 4.HTTP Server und Perl 5.Sicherheit 6.Perl programmieren.
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI Punkt-zu-Punkt-Kommunikation Oswald Haan
von Elektronen eines Atoms.
MS PowerPoint 2010 PowerPoint Arbeiten mit dem Master
Programmieren mit Variablen
General Download Finder
Bandolo: Redoxreaktionen (Lehrerinformation, Stand )
Titelzeile anklicken und ersetzen
Bandolo: Redoxreaktionen (Lehrerinformation, Stand )
Layout "Titel mit Bildern"
Bandolo: Redoxreaktionen (Lehrerinformation, Stand )
Shared Memory Programmierung: Grundlagen
Shared Memory Programmierung: Übungen
 Präsentation transkript:

GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI-Praxis Kollektive Operationen Oswald Haan

(Alle Dateien im Verzeichnis Uebungen_f/MPI-coll ) Uebungen_py/MPI-coll ) Wie hängt die Dauer der Synchronisation von der Zahl der zu synchronisierenden Prozesse ab? (mit synch.f (make synch), synch.py ) synch.fsynch.py Programmieren Sie eine Barriere mit Punkt-zu-Punkt-Kom- munikation und bestimmen Sie deren Dauer: ( synch_s.f (make synch, synch_s.py) : synch_s.fsynch_s.py p0 P1 p2 Aufgabe 1: Synchronisation Parallelrechner-Programmierung mit MPI –

Aufgabe 2: Daten einsammeln Parallelrechner-Programmierung mit MPI – Zusammenführen eines verteilten Vektors zu einem Gesamtvektor mit gather_vec.f (make gather) gather_vec.f gather_vec.pygather_vec.py, gather_obj.pygather_obj.py MPI_GATHER( sendbuf, sendcount, sendtype, recvbuf, recvcount, recvtype, root, comm) comm.Gather(sendbuf,recvbuf,root= 1) recvbuf = comm.gather(sendbuf,root= 1) Task 0 Task 1 (root) Task 2 sendbuf recvbufbuf sendbuf recvbufbuf

Untersuchen Sie das Programm errexit.f, errexit.py errexit.ferrexit.py Ersetzen Sie die Abfolge MPI_REDUCE + MPI_BCAST durch MPI_ALLREDUCE Syntax: MPI_ALLREDUCE( sendbuf, recvbuf, count, datatype, op, comm) recvbuf= comm.reduce(sendobj = sendbuf, recvobj=None, op=op) Aufgabe 3: Reduktion: MPI_MIN Parallelrechner-Programmierung mit MPI – A0 op A0 op A0 A1 op A1 op A1 Task 0 Task 1 Task 2 sendbuf recvbufbuf A0 A1 A0 op A0 op A0 A1 op A1 op A1

Erstellen Sie ein Programm zur Bestimmung des globalen Minimums eines verteilten Vektors ganzer Zahlen mit Angabe eines Prozesses, auf dem das Minimum angenommen wird Hinweis: Suche das Minimum des Hilfsvektors hv(i) = intv(i)*np + myid Aufgabe 3: Reduktion: MPI_MIN Parallelrechner-Programmierung mit MPI –

Erstellen Sie ein Programm zur Summierung der ganzen Zahlen von 1 bis N. Verwenden Sie dabei MPI_REDUCE mit der Operation MPI_SUM intsum.f, intsum.py intsum.fintsum.py Syntax von MPI_REDUCE call MPI_REDUCE(suml,sum,1,MPI_INTEGER, MPI_SUM, : 0,MPI_COMM_WORLD, ierr ) sum = comm.reduce(suml,op=MPI.SUM,root=0) Aufgabe4: Reduktion: MPI_SUM Parallelrechner-Programmierung mit MPI –