htw saar Piktogramm QR-encoded URL
Zurück zur Hauptseite Version des Moduls auswählen:
Lernziele hervorheben XML-Code


Erklärbare Künstliche Intelligenz

Modulbezeichnung:
Bezeichnung des Moduls innerhalb des Studiengangs. Sie soll eine präzise und verständliche Überschrift des Modulinhalts darstellen.
Erklärbare Künstliche Intelligenz
Studiengang:
Studiengang mit Beginn der Gültigkeit der betreffenden ASPO-Anlage/Studienordnung des Studiengangs, in dem dieses Modul zum Studienprogramm gehört (=Start der ersten Erstsemester-Kohorte, die nach dieser Ordnung studiert).
Praktische Informatik, Master, ASPO 01.10.2017
Code: PIM-XAI
SWS/Lehrform:
Die Anzahl der Semesterwochenstunden (SWS) wird als Zusammensetzung von Vorlesungsstunden (V), Übungsstunden (U), Praktikumsstunden (P) oder Projektarbeitsstunden (PA) angegeben. Beispielsweise besteht eine Veranstaltung der Form 2V+2U aus 2 Vorlesungsstunden und 2 Übungsstunden pro Woche.
-
ECTS-Punkte:
Die Anzahl der Punkte nach ECTS (Leistungspunkte, Kreditpunkte), die dem Studierenden bei erfolgreicher Ableistung des Moduls gutgeschrieben werden. Die ECTS-Punkte entscheiden über die Gewichtung des Fachs bei der Berechnung der Durchschnittsnote im Abschlusszeugnis. Jedem ECTS-Punkt entsprechen 30 studentische Arbeitsstunden (Anwesenheit, Vor- und Nachbereitung, Prüfungsvorbereitung, ggfs. Zeit zur Bearbeitung eines Projekts), verteilt über die gesamte Zeit des Semesters (26 Wochen).
6
Studiensemester: 2
Pflichtfach: nein
Arbeitssprache:
Deutsch
Prüfungsart:
Projektarbeit

[letzte Änderung 04.03.2026]
Verwendbarkeit / Zuordnung zum Curriculum:
Alle Studienprogramme, die das Modul enthalten mit Jahresangabe der entsprechenden Studienordnung / ASPO-Anlage.

KIM-XAI Kommunikationsinformatik, Master, ASPO 01.10.2017 , Wahlpflichtfach
PIM-XAI Praktische Informatik, Master, ASPO 01.10.2017 , 2. Semester, Wahlpflichtfach
PIM-XAI Praktische Informatik, Master, SO 01.10.2026 , 2. Semester, Wahlpflichtfach
Arbeitsaufwand:
Der Arbeitsaufwand des Studierenden, der für das erfolgreiche Absolvieren eines Moduls notwendig ist, ergibt sich aus den ECTS-Punkten. Jeder ECTS-Punkt steht in der Regel für 30 Arbeitsstunden. Die Arbeitsstunden umfassen Präsenzzeit (in den Vorlesungswochen), Vor- und Nachbereitung der Vorlesung, ggfs. Abfassung einer Projektarbeit und die Vorbereitung auf die Prüfung.

Die ECTS beziehen sich auf die gesamte formale Semesterdauer (01.04.-30.09. im Sommersemester, 01.10.-31.03. im Wintersemester).
Empfohlene Voraussetzungen (Module):
Keine.
Als Vorkenntnis empfohlen für Module:
Modulverantwortung:
Prof. Dr. Christoph Tholen
Dozent/innen: Prof. Dr. Christoph Tholen

[letzte Änderung 04.03.2026]
Lernziele:
Die Studierenden erwerben Kenntnisse und Fähigkeiten zur Verständlichkeit, Transparenz und Bewertung von KI-Modellen. Nach Abschluss des Moduls können die Studierenden:
•        grundlegende Konzepte des maschinellen Lernens sowie Unterschiede zwischen Whitebox- und Blackbox-Modellen erläutern,
•        Funktionsweise und Zielsetzung zentraler XAI-Methoden (lokal, global, modellagnostisch) beschreiben.
•        interpretierbare Modelle (Regression, Entscheidungsbäume) entwickeln und erklären,
•        Methoden wie z.B. LIME, SHAP oder Surrogatmodelle auf eigene ML-Modelle anwenden,
•        Techniken zur Interpretation neuronaler Netze einsetzen,
•        Erklärungen verschiedener XAI-Methoden vergleichen, interpretieren und deren Grenzen identifizieren sowie die Aussagekraft und Robustheit von Erklärungen beurteilen,
•        geeignete XAI-Methoden für konkrete Anwendungsfälle auswählen und diese Auswahl begründen.

[letzte Änderung 16.03.2026]
Inhalt:
Einführung in Methoden der Künstlichen Intelligenz
Unterschiede verschiedener Erkläransätze
Interpretierbare Modelle z.B.:
•        Lineare Regression,
•        Logistische Regression,
•        Entscheidungsbäume,
•        GLM,
•        GAM
Lokale modellagnostische Methoden z.B.:
•        LIME
•        SHAP
Globale modellagnostische Methoden z.B.:
•        Partial Dependence Plot,
•        Permutation Feature Importance,
•        Leave One Feature Out,
•        Surrogate Models
Erklärungen für Neuronale Netze

[letzte Änderung 16.03.2026]
Weitere Lehrmethoden und Medien:
Folien, Programmierübungen

[letzte Änderung 16.03.2026]
Literatur:
Molnar, C.: Interpretable machine learning: a guide for making black box models explainable. Christoph Molnar, Munich, Germany (2022).
Hopgood, A.A.: Intelligent Systems for Engineers and Scientists: A Practical Guide to Artificial Intelligence. CRC Press, Boca Raton (2021). https://doi.org/10.1201/9781003226277.
Weitere aktuelle wissenschaftliche Veröffentlichungen werden zu Beginn der Veranstaltung bekannt gegeben.


[letzte Änderung 16.03.2026]
[Tue Mar 17 02:32:57 CET 2026, CKEY=peki, BKEY=pim2, CID=PIM-XAI, LANGUAGE=de, DATE=17.03.2026]