GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI-Praxis Kollektive Operationen Oswald Haan

Slides:



Advertisements
Ähnliche Präsentationen
Message Passing Interface (MPI)
Advertisements

Fast Fourier Transformation
Datenparallele Algorithmische Skelette in Muesli
Objektorientierte Programmierung
Polynomial Root Isolation
Ableitungen Bilden Sie die Ableitungen der Funktion: Grundfunktion
2. Programmstruktur – Teil 2
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2012.
Enno Rehling und Roger Butenuth, Uni-GH Paderborn: Arminius: Software für Linux-basierte SCI-Cluster Arminius: Software für Linux-basierte SCI-Cluster.
Logische Vektoren in R Jonathan Harrington.
Fehlererkennende Codes
Dynamische Programmierung (2) Matrixkettenprodukt
WS Algorithmentheorie 08 – Dynamische Programmierung (2) Matrixkettenprodukt Prof. Dr. Th. Ottmann.
OpenMP Präsentation im Rahmen des Seminars
2D-Visualisierung von Daten
Vorlesung 9.2: Specification Universität Bielefeld – Technische Fakultät AG Rechnernetze und verteilte Systeme Peter B. Ladkin
Excel Kurs Teil I Excel starten, Verknüpfungen auf dem Desktop anlegen. F. Bäumer.
Tabellenkalkulationssysteme
Diskrete Mathe 9 Vorlesung 9 SS 2001
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI-Praxis Einführung Oswald Haan
Windows Presentation Foundation WS 2013/14 Prof. Dr. Herrad Schmidt
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI Punkt-zu-Punkt-Kommunikation Oswald Haan
Programmierung paralleler Algorithmen mit MPI
Informatik Grundlagen, WS04, Seminar 11
Excel Crash Kurs Die 3 Einsatzbereiche Tabellen mit autom.Berechnungen
Dateien Datei = File (engl.) Mögliche Inhalte einer Datei
Regionalisierte Variablen und Kriging
Zeichnen linearer Funktionen
Effiziente Algorithmen
Copyright 2011 Bernd Brügge, Christian Herzog Grundlagen der Programmierung TUM Wintersemester 2011/12 Kapitel 11, Folie 1 2 Dr. Christian Herzog Technische.
Einführung in die Programmierung Wintersemester 2008/09 Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund.
Einführung in die Programmierung Wintersemester 2008/09 Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fakultät.
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI Eine Einführung Oswald Haan
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI Allgemeine Datentypen Oswald Haan
GWDG – Kurs Parallelrechner-Programmierung mit MPI – Oswald Haan
Oswald Haan GWDG – Kurs Parallelrechner-Programmierung mit MPI Grundlagen der Parallelverarbeitung Oswald Haan
C. Boehme, O. Haan, U. Schwardmann GWDG Übungen II Programmierung von Parallelrechnern.
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI-Praxis Kollektive Operationen Oswald Haan
Powerpoint 2013 Animationen Kurs 1 Animationspfade
Abtragen von Strecken P Q O H t 1-t und Daraus folgt:
Die ersten Schritte bei der Entdeckung der Statistik
Mag. Andreas Starzer weloveIT – EDV Dienstleistungen
AK Dokumenation unter MSAccess ®
Agenda für heute, 28. April, 2005 Strukturierte VariablenStrukturierte Variablen Arrays.
Erfassung Verwaltung Analyse Präsentation EVAP-Prinzip im GIS
„ Ein Programm mit Papier und Stift “
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI Kollektive Operationen Oswald Haan
-Signatur einrichten Flexkommail-Signatur
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI-Praxis Kollektive Operationen Oswald Haan
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI Kollektive Operationen Oswald Haan
Mikrocomputertechnik Port-Quickie Prof. J. Walter Stand Januar Mikrocomputertechnik Jürgen Walter „Port-Quickie“ 8051-Port Eingabe - Ausgabe.
Java-Kurs - 7. Übung Besprechung der Hausaufgabe Referenzvariablen
Logos Einreicher/Partner
C. Boehme, O. Haan, U. Schwardmann GWDG Übungen II Programmierung von Parallelrechnern.
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI-Praxis Einführung Oswald Haan
Erheben, berechnen und darstellen von Daten
Gottfried Vossen 5. Auflage 2008 Datenmodelle, Datenbanksprachen und Datenbankmanagementsysteme Kapitel 23: Verteilte Transaktionsverarbeitung.
Mikrocomputertechnik 12-A-PWM-Quickie Prof. J. Walter, HsKa Stand Dezember Mikrocomputertechnik Jürgen Walter „PWM-P-Quickie“ Programmierung: P_25_50_75.
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI-Praxis Punkt-zu-Punkt-Kommunikation Oswald Haan
WS03/041 Dynamische Programmierung (3) Konstruktion optimaler Suchbäume Prof. Dr. S. Albers Prof. Dr. Th. Ottmann.
GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI-Praxis Kollektive Operationen Oswald Haan
von Elektronen eines Atoms.
Roboter programmieren
Programmieren mit Variablen
Bandolo: Redoxreaktionen (Lehrerinformation, Stand )
Bandolo: Redoxreaktionen (Lehrerinformation, Stand )
Objekte -Formeln Inhalt: Formeln erstellen und verändern
Bandolo: Redoxreaktionen (Lehrerinformation, Stand )
Shared Memory Programmierung: Grundlagen
 Präsentation transkript:

GWDG – Kurs Parallelrechner-Programmierung mit MPI MPI-Praxis Kollektive Operationen Oswald Haan

(Alle Dateien im Verzeichnis Uebungen_f/MPI-coll ) Wie hängt die Dauer der Synchronisation von der Zahl der zu synchronisierenden Prozesse ab? (mit synch.f ) synch.f Programmieren Sie eine Barriere mit Punkt-zu-Punkt-Kom- munikation und bestimmen Sie deren Dauer: ( synch_s.f) : synch_s.f) p0 P1 p2 Aufgabe 1: Synchronisation Parallelrechner-Programmierung mit MPI223. –

Aufgabe 2: Daten einsammeln Parallelrechner-Programmierung mit MPI323. – Zusammenführen eines verteilten Vektors zu einem Gesamtvektor mit gather_vec.f gather_vec.f

Untersuchen Sie das Programm errexit.f. errexit.f Erstellen Sie ein Programm zur Bestimmung des globalen Minimums eines verteilten Vektors ganzer Zahlen mit Angabe eines Prozesses, auf dem das Minimum angenommen wird Aufgabe 3: Reduktion: MPI_MIN Parallelrechner-Programmierung mit MPI423. –

Erstellen Sie ein Programm zur Summierung der ganzen Zahlen von 1 bis NMAX. Verwenden Sie dabei MPI_REDUCE mit der Operation MPI_SUM intsum.f Aufgabe4: Reduktion: MPI_SUM Parallelrechner-Programmierung mit MPI523. –