Klicken Sie auf den jeweiligen Veranstaltungstitel für weitere Informationen!
Dozent:in: Ernst August v. Hammerstein
Assistenz: Sebastian Hahn
Sprache: auf Englisch
Vorlesung: Di, Do, 14-16 Uhr, SR 404, Ernst-Zermelo-Str. 1
Übung: 2-stündig, Termin wird noch festgelegt und in der Vorlesung bekanntgegeben
Die Anforderungen an Studien- und Prüfungsleistungen werden in den aktuellen Ergänzungen der Modulhandbücher beschrieben, die ab Ende Oktober 2025 als Teil des Kommentierten Vorlesungsverzeichnisses veröffentlicht werden.
Die Vorlesung Mathematische Statistik baut auf Grundkenntnissen aus der Vorlesung Wahrscheinlichkeitstheorie auf. Das grundlegende Problem der Statistik ist, anhand einer Stichprobe von Beobachtungen möglichst präzise Aussagen über den datengenerierenden Prozess bzw. die den Daten zugrundeliegenden Verteilungen zu machen. Hierzu werden in der Vorlesung die wichtigsten Methoden aus der statistischen Entscheidungstheorie wie Test- und Schätzverfahren eingeführt.
Stichworte hierzu sind u.a. Bayes-Schätzer und -Tests, Neyman-Pearson-Testtheorie, Maximum-Likelihood-Schätzer, UMVU-Schätzer, exponentielle Familien, lineare Modelle. Weitere Themen sind Ordnungsprinzipien zur Reduktion der Komplexität der Modelle (Suffizienz und Invarianz).
Statistische Methoden und Verfahren kommen nicht nur in den Naturwissenschaften und der Medizin, sondern in nahezu allen Bereichen zum Einsatz, in denen Daten erhoben und analysiert werden, so z. B. auch in den Wirtschaftswissenschaften (Ökonometrie) und Sozialwissenschaften (dort vor allem in der Psychologie). Im Rahmen dieser Vorlesung wird der Schwerpunkt aber weniger auf Anwendungen, sondern – wie der Name schon sagt – mehr auf der mathematisch fundierten Begründung der Verfahren liegen.
Wahrscheinlichkeitstheorie (insbesondere Maßtheorie sowie bedingte Wahrscheinlichkeiten und Erwartungen)
Advanced Lecture in Stochastics
Elective in Data
Probabilistic Machine Learning
Dozent:in: Giuseppe Genovese
Assistenz: Roger Bader
Sprache: auf Englisch
Vorlesung: Di, Do, 12-14 Uhr, HS II, Albertstr. 23b
Übung: Do, 16-18 Uhr, SR 218, Ernst-Zermelo-Str. 1
Die Anforderungen an Studien- und Prüfungsleistungen werden in den aktuellen Ergänzungen der Modulhandbücher beschrieben, die ab Ende Oktober 2025 als Teil des Kommentierten Vorlesungsverzeichnisses veröffentlicht werden.
The goal of the course is to provide a mathematical treatment of deep neural networks and energy models, that are the building blocks of many modern machine learning architectures. About neural networks we will study the basics of statistical learning theory, the back-propagation algorithm and stochastic gradient descent, the benefits of depth. About energy models we will cover some of the most used learning and sampling algorithms. In the exercise classes, besides solving theoretical problems, there will be some Python programming sessions to implement the models introduced in the lectures.
Probability Theory I \
Basic knowledge of Markov chains is useful for some part of the course.
Advanced Lecture in Stochastics
Elective in Data
Dozent:in: Angelika Rohde
Assistenz: Johannes Brutsche
Sprache: auf Englisch
Vorlesung: Mo, Mi, 14-16 Uhr, HS II, Albertstr. 23b
Übung: 2-stündig, Termin wird noch festgelegt und in der Vorlesung bekanntgegeben
Die Anforderungen an Studien- und Prüfungsleistungen werden in den aktuellen Ergänzungen der Modulhandbücher beschrieben, die ab Ende Oktober 2025 als Teil des Kommentierten Vorlesungsverzeichnisses veröffentlicht werden.
A stochastic process \((X_t)_{t\in T}\) is a family of random variables, where mostly the situation \(T = \mathbb{N}\) or \(T = [0, 1]\) is studied. Basic examples include stationary time series, the Poisson process and Brownian motion as well as processes derived from those. The lecture includes ergodic theory and its applications, Brownian motion and especially the study of its path properties, the elegant concept of weak convergence on Polish spaces as well as functional limit theorems. Finally, we introduce stochastic integration with respect to local martingales, based on the continuous time version of the martingale transform.
Wahrscheinlichkeitstheorie I
Advanced Lecture in Stochastics
Elective in Data