Präsentation herunterladen
Die Präsentation wird geladen. Bitte warten
Veröffentlicht von:Elissa Kaufhold Geändert vor über 11 Jahren
1
GPU Computing Burim Kameri Fachhochschule Hannover (FHH)
Institut für Solarforschung Hameln (ISFH)
2
Inhalt Motivation Sequentielle vs. parallele Programmierung
GPGPU – OpenCL Beispiel – Matrix-Skalar-Multiplikation Optimierung Zusammenfassung GPU - Computing
3
Motivation GPU - Computing
4
Beispiel: Matrixmultiplikation
5
Sequentielle vs. parallele Programmierung
Sequentielle Programmierung Quelle: GPU - Computing
6
Sequentielle vs. parallele Programmierung
Quelle: GPU - Computing
7
global and constant memory
GPGPU - OpenCL „local memory“ ist um 100x-150x schneller als der „global memory“! Zusätzliche Verwendung der GPU für allgemeine Aufgaben memory local memory privat memory global and constant memory Quelle: CUDA C Programming Guide Quelle: GPU - Computing
8
Beispiel (Matrix-Skalar-Multiplikation)
CPU GPU (OpenCL) void multMatrix(float* A, float c, float* B) { for( i = 0;i < 225;i++ ) { B[i] = A[i] * c; } __kernel__ void multMatrix(float* A, float c, float* B) { int idx = get_global_id(0); B[idx] = A[idx] * c; } GPU - Computing
9
Optimierung GPU - Computing
10
Zusammenfassung Aufteilung des Domänenproblems
Tieferes Verständnis des Domänenproblems nötig Wissen über das Programmiermodell work-items, work-groups, Kernels, Speicherhirachien, etc. Synchronisierung Tiefes Wissen über die GPU-Architektur Shared Memory Kontrollstrukturen mit bedingten Verzweigungen vermeiden GPU - Computing
11
Dankeschön! Fragen? GPU - Computing
Ähnliche Präsentationen
© 2025 SlidePlayer.org Inc.
All rights reserved.