Nächstes Semester

Modellierung II

Dozent:innen: Univ.-Prof. Dr. Michael Wand
Kurzname: 08.079.318
Kurs-Nr.: 08.079.318
Kurstyp: Vorlesung/Übung
Format: online

Voraussetzungen / Organisatorisches

Die Vorlesung Modelierung 1 wird vorausgesetzt.
Andere Veranstaltungen zu machinellem Lernen und / oder Computer Vision sind hilfreich, aber nicht notwendig. Grundvorlesungen in Mathematik (Analysis/lineare Algebra/Statistik für Informatiker, oder die analogen Veranstaltungen aus dem NF Physik) sind ebenfalls sehr wichtig (dies gilt aber auch schon für Modellierung 1).

Digitale Lehre

Die Veranstaltung wird komplett digital stattfinden (Vorlesungsvideos, Übungen via Videokonferenz). Alle weiteren Informationen werden auf der folgenden Webseite veröffentlicht:

https://luna.informatik.uni-mainz.de/mod2-21/

Die Webseite wird voraussichtlich kurz vor Start der Vorlesungen online gehen (da alles neu erstellt werden muss). Falls Sie einen Eindruck vom Format bekommen möchten, können sie am gleichen Ort unter /mod1-20 sich die Materialien zur Modellierung 1 anschauen.

Empfohlene Literatur

Richard O. Duda, Peter E. Hart, David G. Stork: Pattern Classification (Second Edition). Wiley & Sons 2000.

Weitere Literatur wird in der Vorlesung bekannt gegeben.

Inhalt

Die Veranstaltung Modellierung II wird im Sommersemester 2021 als "statistische Datenmodellierung" neu konzipiert.

Während der erste Teil (Modellierung I) sich vor allem lineare Modelle angeschaut hat, geht es nun darum, wie man statistische Informationen aus Daten extrahieren kann. Dabei stehen neben einer Einführung in maschinelles Lernen vor allem die Methoden des Lernens mit "tiefen Netzwerken" im Mittelpunkt des Interesses. Der Fokus ist hierbei weniger auf Anwendungen, als darauf, zu verstehen, wie und warum diese Methoden (so gut) funktionieren. Welche mathematischen Modelle können wir anwenden, um zu erklären wann und warum diese neue Methoden gut funktionieren.

Die Einführung in das maschinelle Lernen setzt zwar kein Wissen aus anderen Veranstaltungen zu diesem Thema voraus, ist aber möglichst methodisch komplementär zu der gleichnamigen Grundvorlesung "Machine Learning" ausgelegt.

Die genaue Zusammenstellung der Themen steht noch nicht fest (vor allem in Teil 3) - geplant sind aber u.a. die folgenden Inhalte:

  1. 1 Grundlagen
  2. [list]
  3. Kurzübersicht Machine Learning
  4. Wiederholung lineare Modelle für machine Learning
  5. Einführung Deep Learning

  • 2 Klassische Verfahren (komplementär zur Vorlesung ML)

    1. Markov-Random Fields
    2. Matrixfaktorisierung und Einbettungen, Kernels

  • 3 Verständnis tiefer Netze ("a deeper look into deep learning")

    1. Informationstheorie
    2. Lineare & spektrale Analyse (alles ist PCA)
    3. Approximationen im Limit (Neural Tangent Kernel etc.)
    4. Ideen aus der statistischen Physik (Phasenübergänge, Mean-Field, etc…)
    5. Empirische Ansätze und Ergebnisse (Lottery-Ticket etc.)

    [/list]
    Die Veranstaltung ist vor allem im letzten Teil thematisch forschungsnah und wendet sich eher an Studierende im Master (wobei interessierte Studierende im Bachelor trotzdem willkommen sind).
     

    Termine

    Datum (Wochentag) Zeit Ort
    13.04.2021 (Dienstag) 16:00 - 18:00
    20.04.2021 (Dienstag) 16:00 - 18:00
    27.04.2021 (Dienstag) 16:00 - 18:00
    04.05.2021 (Dienstag) 16:00 - 18:00
    11.05.2021 (Dienstag) 16:00 - 18:00
    18.05.2021 (Dienstag) 16:00 - 18:00
    25.05.2021 (Dienstag) 16:00 - 18:00
    01.06.2021 (Dienstag) 16:00 - 18:00
    08.06.2021 (Dienstag) 16:00 - 18:00
    15.06.2021 (Dienstag) 16:00 - 18:00
    22.06.2021 (Dienstag) 16:00 - 18:00
    29.06.2021 (Dienstag) 16:00 - 18:00
    06.07.2021 (Dienstag) 16:00 - 18:00
    13.07.2021 (Dienstag) 16:00 - 18:00