|
|
|
| Code: PIM-XAI |
|
- |
|
6 |
| Studiensemester: 2 |
| Pflichtfach: nein |
Arbeitssprache:
Deutsch |
Prüfungsart:
Projektarbeit
[letzte Änderung 04.03.2026]
|
KIM-XAI Kommunikationsinformatik, Master, ASPO 01.10.2017
, Wahlpflichtfach
PIM-XAI Praktische Informatik, Master, ASPO 01.10.2017
, 2. Semester, Wahlpflichtfach
PIM-XAI Praktische Informatik, Master, SO 01.10.2026
, 2. Semester, Wahlpflichtfach
|
|
|
Empfohlene Voraussetzungen (Module):
Keine.
|
Als Vorkenntnis empfohlen für Module:
|
Modulverantwortung:
Prof. Dr. Christoph Tholen |
Dozent/innen: Prof. Dr. Christoph Tholen
[letzte Änderung 04.03.2026]
|
Lernziele:
Die Studierenden erwerben Kenntnisse und Fähigkeiten zur Verständlichkeit, Transparenz und Bewertung von KI-Modellen. Nach Abschluss des Moduls können die Studierenden: • grundlegende Konzepte des maschinellen Lernens sowie Unterschiede zwischen Whitebox- und Blackbox-Modellen erläutern, • Funktionsweise und Zielsetzung zentraler XAI-Methoden (lokal, global, modellagnostisch) beschreiben. • interpretierbare Modelle (Regression, Entscheidungsbäume) entwickeln und erklären, • Methoden wie z.B. LIME, SHAP oder Surrogatmodelle auf eigene ML-Modelle anwenden, • Techniken zur Interpretation neuronaler Netze einsetzen, • Erklärungen verschiedener XAI-Methoden vergleichen, interpretieren und deren Grenzen identifizieren sowie die Aussagekraft und Robustheit von Erklärungen beurteilen, • geeignete XAI-Methoden für konkrete Anwendungsfälle auswählen und diese Auswahl begründen.
[letzte Änderung 16.03.2026]
|
Inhalt:
Einführung in Methoden der Künstlichen Intelligenz Unterschiede verschiedener Erkläransätze Interpretierbare Modelle z.B.: • Lineare Regression, • Logistische Regression, • Entscheidungsbäume, • GLM, • GAM Lokale modellagnostische Methoden z.B.: • LIME • SHAP Globale modellagnostische Methoden z.B.: • Partial Dependence Plot, • Permutation Feature Importance, • Leave One Feature Out, • Surrogate Models Erklärungen für Neuronale Netze
[letzte Änderung 16.03.2026]
|
Weitere Lehrmethoden und Medien:
Folien, Programmierübungen
[letzte Änderung 16.03.2026]
|
Literatur:
Molnar, C.: Interpretable machine learning: a guide for making black box models explainable. Christoph Molnar, Munich, Germany (2022). Hopgood, A.A.: Intelligent Systems for Engineers and Scientists: A Practical Guide to Artificial Intelligence. CRC Press, Boca Raton (2021). https://doi.org/10.1201/9781003226277. Weitere aktuelle wissenschaftliche Veröffentlichungen werden zu Beginn der Veranstaltung bekannt gegeben.
[letzte Änderung 16.03.2026]
|