|
Modulbezeichnung (engl.):
GPU Computing |
|
Code: KIM-GPU |
2V+2P (4 Semesterwochenstunden) |
5 |
Studiensemester: 1 |
Pflichtfach: nein |
Arbeitssprache:
Deutsch |
Prüfungsart:
Projektarbeit
[letzte Änderung 08.10.2020]
|
KI784 (P222-0091) Kommunikationsinformatik, Master, ASPO 01.04.2016
, 1. Semester, Wahlpflichtfach, informatikspezifisch
KIM-GPU Kommunikationsinformatik, Master, ASPO 01.10.2017
, 1. Semester, Wahlpflichtfach, informatikspezifisch
PIM-WI72 (P222-0091) Praktische Informatik, Master, ASPO 01.10.2011
, 1. Semester, Wahlpflichtfach, informatikspezifisch
PIM-GPU (P222-0091) Praktische Informatik, Master, ASPO 01.10.2017
, 1. Semester, Wahlpflichtfach, informatikspezifisch
|
Die Präsenzzeit dieses Moduls umfasst bei 15 Semesterwochen 60 Veranstaltungsstunden (= 45 Zeitstunden). Der Gesamtumfang des Moduls beträgt bei 5 Creditpoints 150 Stunden (30 Std/ECTS). Daher stehen für die Vor- und Nachbereitung der Veranstaltung zusammen mit der Prüfungsvorbereitung 105 Stunden zur Verfügung.
|
Empfohlene Voraussetzungen (Module):
Keine.
|
Als Vorkenntnis empfohlen für Module:
|
Modulverantwortung:
Prof. Dr. Jörg Keller |
Dozent/innen: Prof. Dr. Jörg Keller
[letzte Änderung 10.11.2016]
|
Lernziele:
Die Studierenden sind in der Lage, die Arbeitsweise moderner CPU-/GPU-Strukturen zu verstehen und deren wesentlichen Merkmale zu vergleichen. Sie können mit Hilfe von GPU-Programmierparadigmen massiv parallele Lösungsansätze planen, deren Ressourcenverbrauch einschätzen und ihre Praktikabilität anhand von konkreten Implementierungen aufzeigen. Desweiteren können sie erlernte Techniken auf neue Problemstellungen adaptieren und die Qualität der entsprechenden Lösungen beurteilen.
[letzte Änderung 23.11.2017]
|
Inhalt:
Die Vorlesung wiederholt zunächst in kompakter Form Architektur und Grundlagen der parallelen Programmierung für Multicore-CPUs und GPUs. Dabei vertieft sie Kenntnisse über Gemeinsamkeiten und Unterschiede, um die Programmierung von GPUs durch Übertragung paralleler Programme für Multicores zu vereinfachen. Neben Techniken wie der Regularisierung von Kontrollfluss und Speicherzugriffen werden auch algorithmische Techniken anhand mehrerer Anwendungsdomänen gezeigt, die von der klassischen Numerik bis zur Kryptografie reicht. - Architektur moderner CPU-Kerne (Superskalarität, Hyperthreading, etc) - Architektur moderner Mehrkern-Prozessoren (mehrere Cores, gemeinsame Caches, Speicherzugriff) - Programmierung moderner Mehrkern-Prozessoren - Fortgeschrittene Programmierung moderner Mehrkern-Prozessoren (Beispiele von Koordination durch critical sections, barriers, etc) - Architektur moderner GPU-Architekturen (mehrere Multiprozessoren, Multiprozessoren als SIMD-Architekturen) - Unterschiede zwischen GPUs und CPUs (SIMD vs MIMD, Datentransport, Zusammenarbeit CPU/GPU) - Vorteile von GPUs gegenüber CPUs (Rechenleistung, explizite Nutzung lokaler Speicher, massive Parallelität) - Grundlagen der GPU-Programmierung mit OpenCL (Beispiel-Programme, Zeitmessung, Relation Berechnung-Transport) - Unterschiede zwischen CUDA und OpenCL (OpenCL allgemeiner, dafür aufwändiger, Code meistens weniger effizient) - Performance-Abhängigkeit von Indizierung und Speichernutzung (Unterschiede je nach Dimensionszahl und -größen, Platzierung von Variablen) - Regularisierung von Code zur Performance-Steigerung (Übertragung von Multicore-Code auf GPU, SIMDsierung, etc) - Numerische Anwendungen (Parallele numerische Lösung von einfachen Differenzialgleichungen) - Kombinatorische Anwendungen (Probleme in Graphen, Fokus auf Regularisierung) - Kryptografische Anwendungen (Fokus auf Regularität sowie bitserieller Implementierung) - Harte Probleme (NP-harte Probleme, Approximationen, Parallelisierung für GPU)
[letzte Änderung 09.07.2018]
|
Weitere Lehrmethoden und Medien:
Cuda/OpenCL-Systeme mit NVidia-Tesla und -Kepler GPU-Architektur Projekttreffen u.a. als Videokonferenz
[letzte Änderung 08.10.2020]
|
Literatur:
[noch nicht erfasst]
|
Modul angeboten in Semester:
WS 2018/19,
WS 2017/18
|