htw saar Piktogramm QR-encoded URL
Zurück zur Hauptseite Version des Moduls auswählen:
Lernziele hervorheben XML-Code


Deep Learning

Modulbezeichnung:
Bezeichnung des Moduls innerhalb des Studiengangs. Sie soll eine präzise und verständliche Überschrift des Modulinhalts darstellen.
Deep Learning
Modulbezeichnung (engl.): Deep Learning
Studiengang:
Studiengang mit Beginn der Gültigkeit der betreffenden ASPO-Anlage/Studienordnung des Studiengangs, in dem dieses Modul zum Studienprogramm gehört (=Start der ersten Erstsemester-Kohorte, die nach dieser Ordnung studiert).
Elektro- und Informationstechnik, Master, ASPO 01.04.2019
Code: E2831
SAP-Submodul-Nr.:
Die Prüfungsverwaltung mittels SAP-SLCM vergibt für jede Prüfungsart in einem Modul eine SAP-Submodul-Nr (= P-Nummer). Gleiche Module in unterschiedlichen Studiengängen haben bei gleicher Prüfungsart die gleiche SAP-Submodul-Nr..
P221-0155
SWS/Lehrform:
Die Anzahl der Semesterwochenstunden (SWS) wird als Zusammensetzung von Vorlesungsstunden (V), Übungsstunden (U), Praktikumsstunden (P) oder Projektarbeitsstunden (PA) angegeben. Beispielsweise besteht eine Veranstaltung der Form 2V+2U aus 2 Vorlesungsstunden und 2 Übungsstunden pro Woche.
2V+2P (4 Semesterwochenstunden)
ECTS-Punkte:
Die Anzahl der Punkte nach ECTS (Leistungspunkte, Kreditpunkte), die dem Studierenden bei erfolgreicher Ableistung des Moduls gutgeschrieben werden. Die ECTS-Punkte entscheiden über die Gewichtung des Fachs bei der Berechnung der Durchschnittsnote im Abschlusszeugnis. Jedem ECTS-Punkt entsprechen 30 studentische Arbeitsstunden (Anwesenheit, Vor- und Nachbereitung, Prüfungsvorbereitung, ggfs. Zeit zur Bearbeitung eines Projekts), verteilt über die gesamte Zeit des Semesters (26 Wochen).
6
Studiensemester: laut Wahlpflichtliste
Pflichtfach: nein
Arbeitssprache:
Deutsch
Prüfungsart:
Projektarbeit (Präsentation und Dokumentation)

[letzte Änderung 28.03.2020]
Verwendbarkeit / Zuordnung zum Curriculum:
Alle Studienprogramme, die das Modul enthalten mit Jahresangabe der entsprechenden Studienordnung / ASPO-Anlage.

E2831 (P221-0155) Elektro- und Informationstechnik, Master, ASPO 01.04.2019 , Wahlpflichtfach, technisch
KIM-DL (P221-0155) Kommunikationsinformatik, Master, ASPO 01.10.2017 , Wahlpflichtfach, informatikspezifisch
PIM-DL (P221-0155) Praktische Informatik, Master, ASPO 01.10.2017 , 3. Semester, Wahlpflichtfach, informatikspezifisch
Arbeitsaufwand:
Der Arbeitsaufwand des Studierenden, der für das erfolgreiche Absolvieren eines Moduls notwendig ist, ergibt sich aus den ECTS-Punkten. Jeder ECTS-Punkt steht in der Regel für 30 Arbeitsstunden. Die Arbeitsstunden umfassen Präsenzzeit (in den Vorlesungswochen), Vor- und Nachbereitung der Vorlesung, ggfs. Abfassung einer Projektarbeit und die Vorbereitung auf die Prüfung.

Die ECTS beziehen sich auf die gesamte formale Semesterdauer (01.04.-30.09. im Sommersemester, 01.10.-31.03. im Wintersemester).
Die Präsenzzeit dieses Moduls umfasst bei 15 Semesterwochen 60 Veranstaltungsstunden (= 45 Zeitstunden). Der Gesamtumfang des Moduls beträgt bei 6 Creditpoints 180 Stunden (30 Std/ECTS). Daher stehen für die Vor- und Nachbereitung der Veranstaltung zusammen mit der Prüfungsvorbereitung 135 Stunden zur Verfügung.
Empfohlene Voraussetzungen (Module):
Keine.
Als Vorkenntnis empfohlen für Module:
Modulverantwortung:
Prof. Dr. Klaus Berberich
Dozent/innen: Prof. Dr. Klaus Berberich

[letzte Änderung 07.04.2020]
Lernziele:
Students know about fundamental of deep neural networks and how they can be used to address various tasks in different domains (e.g., Natural Language Processing and Computer Vision). Students obtain a solid understanding of the theoretical underpinnings of deep neural networks such as optimization algorithms for learning parameters (e.g., variants of gradient descent) and activation functions (e.g., sigmoid, tanh, and ReLU). Given a specific task, students can put together a suitable neural network architecture (e.g., a CNN or RNN) and implement it using a standard framework (e.g., TensorFlow with Keras). Furthermore, students are aware of typical issues that can arise when training neural networks (e.g., overfitting) and know how to counteract them.

[letzte Änderung 01.04.2020]
Inhalt:
1. Introduction
 
2. Fundamentals of Machine Learning
 
3. Feed-Forward Neural Networks
 
4. Convolutional Neural Networks
 
5. Recurrent Neural Networks
 
6. Representation Learning
 
7. Generative Deep Learning
 
8. Outlook

[letzte Änderung 01.04.2020]
Literatur:
F. Chollet: Deep Learning with Python,
Manning, 2018
 
I. Goodfellow, Y. Bengio, and A. Courville: Deep Learning,
MIT Press 2016
https://www.deeplearningbook.org
 
M. Nielsen: Neural Networks and Deep Learning,
Online, 2019
http://neuralnetworksanddeeplearning.com
 
A. Gulli, A. Kapoor, and S. Pal: Deep Learning with TensorFlow 2 and Keras,
Packt Publishing, 2019
 
H. Lane, C. Howard, and H. M. Hapke: Natural Language Processing in Action,
Manning, 2019
 
S. Raschka and V. Mirjalili: Python Machine Learning,
Packt Publishing, 2019
 
A. Burkov: The Hundred-Page Machine Learning Book,
self published, 2019
http://themlbook.com

[letzte Änderung 01.04.2020]
[Fri Apr 19 18:18:30 CEST 2024, CKEY=kdl, BKEY=eim, CID=E2831, LANGUAGE=de, DATE=19.04.2024]