|
|
Code: MTM.GPU |
2V+2P (4 Semesterwochenstunden) |
6 |
Studiensemester: 1 |
Pflichtfach: nein |
Arbeitssprache:
Deutsch |
Prüfungsart:
[noch nicht erfasst]
|
KIM-MGPU (P221-0140) Kommunikationsinformatik, Master, ASPO 01.10.2017
, 1. Semester, Wahlpflichtfach, informatikspezifisch
MTM.GPU Mechatronik, Master, ASPO 01.04.2020
, 1. Semester, Wahlpflichtfach
PIM-MGPU (P221-0140) Praktische Informatik, Master, ASPO 01.10.2017
, 1. Semester, Wahlpflichtfach, informatikspezifisch
|
Die Präsenzzeit dieses Moduls umfasst bei 15 Semesterwochen 60 Veranstaltungsstunden (= 45 Zeitstunden). Der Gesamtumfang des Moduls beträgt bei 6 Creditpoints 180 Stunden (30 Std/ECTS). Daher stehen für die Vor- und Nachbereitung der Veranstaltung zusammen mit der Prüfungsvorbereitung 135 Stunden zur Verfügung.
|
Empfohlene Voraussetzungen (Module):
Keine.
|
Als Vorkenntnis empfohlen für Module:
|
Modulverantwortung:
Prof. Dr. Jörg Keller |
Dozent/innen: Prof. Dr. Jörg Keller
[letzte Änderung 30.10.2023]
|
Lernziele:
Im Modul "Multicore- und GPU-Computing" werden die Studierenden mit den beiden am weitest verbreiteten Programmiermodellen für Mehrkernsysteme vertraut gemacht: - OpenMP für Multicore-CPUs - CUDA und OpenCL für GPUs Da heute eigentlich alle Prozessoren mehrere Cores beinhalten, sind zunehmend fast alle Programmierer mit einer dieser Programmierformen konfrontiert. Die Einführung erfolgt gemeinsam mit algorithmischen Techniken zur Parallelisierung anhand von konkreten Anwendungsproblemen, die von Numerik bis Optimierung reichen. Vorausgesetzt werden dabei nur Kenntnisse der C- bzw. C++-Programmierung sowie Grundkenntnisse zu Algorithmen.
[letzte Änderung 15.08.2019]
|
Inhalt:
Die Vorlesung wiederholt zunächst in kompakter Form Architektur und Grundlagen der parallelen Programmierung für Multicore-CPUs und GPUs. Dabei vertieft sie Kenntnisse über Gemeinsamkeiten und Unterschiede, um die Programmierung von GPUs durch Übertragung paralleler Programme für Multicores zu vereinfachen. Neben Techniken wie der Regularisierung von Kontrollfluss und Speicherzugriffen werden auch algorithmische Techniken anhand mehrerer Anwendungsdomänen gezeigt, die von der klassischen Numerik bis zur Kryptografie reicht. - Architektur moderner CPU-Kerne (Superskalarität, Hyperthreading, etc) - Architektur moderner Mehrkern-Prozessoren (mehrere Cores, gemeinsame Caches, Speicherzugriff) - Programmierung moderner Mehrkern-Prozessoren - Fortgeschrittene Programmierung moderner Mehrkern-Prozessoren (Beispiele von Koordination durch critical sections, barriers, etc) - Architektur moderner GPU-Architekturen (mehrere Multiprozessoren, Multiprozessoren als SIMD-Architekturen) - Unterschiede zwischen GPUs und CPUs (SIMD vs MIMD, Datentransport, Zusammenarbeit CPU/GPU) - Vorteile von GPUs gegenüber CPUs (Rechenleistung, explizite Nutzung lokaler Speicher, massive Parallelität) - Grundlagen der GPU-Programmierung mit OpenCL (Beispiel-Programme, Zeitmessung, Relation Berechnung-Transport) - Unterschiede zwischen CUDA und OpenCL (OpenCL allgemeiner, dafür aufwändiger, Code meistens weniger effizient) - Performance-Abhängigkeit von Indizierung und Speichernutzung (Unterschiede je nach Dimensionszahl und -größen, Platzierung von Variablen) - Regularisierung von Code zur Performance-Steigerung (Übertragung von Multicore-Code auf GPU, SIMDsierung, etc) - Numerische Anwendungen (Parallele numerische Lösung von einfachen Differenzialgleichungen) - Kombinatorische Anwendungen (Probleme in Graphen, Fokus auf Regularisierung) - Kryptografische Anwendungen (Fokus auf Regularität sowie bitserieller Implementierung) - Harte Probleme (NP-harte Probleme, Approximationen, Parallelisierung für GPU)
[letzte Änderung 15.08.2019]
|
Weitere Lehrmethoden und Medien:
Cuda/OpenCL-Systeme mit NVidia-Tesla und -Kepler GPU-Architektur
[letzte Änderung 15.08.2019]
|
Literatur:
[noch nicht erfasst]
|