Achtung: Es gibt einige kurzfristige Raumänderungen!
Vorlesung: Mo, 12-14 Uhr, HS II, Albertstr. 23b, Mi, 12-14 Uhr, SR 226, Hermann-Herder-Str. 10
Übung: 2-stündig, Termin wird noch festgelegt
Klausur: Datum wird noch bekanntgegeben
Achtung: Zeit- und Raumänderung!
Dozent:in: Patrick Dondl
Assistenz: Luciano Sciaraffia
Sprache: auf Deutsch
Die lineare Funktionalanalysis, um die es in der Vorlesung geht, verwendet Konzepte der linearen Algebra wie Vektorraum, linearer Operator, Dualraum, Skalarprodukt, adjungierte Abbildung, Eigenwert, Spektrum, um Gleichungen in unendlichdimensionalen Funktionenräumen zu lösen, vor allem lineare Differentialgleichungen. Die algebraischen Begriffe müssen dazu durch topologische Konzepte wie Konvergenz, Vollständigkeit, Kompaktheit erweitert werden. Dieser Ansatz ist zu Beginn des 20. Jahrhunderts u. a. von Hilbert entwickelt worden, er gehört nun zum methodischen Fundament der Analysis, der Numerik, sowie der Mathematischen Physik, insbesondere der Quantenmechanik, und ist auch in anderen mathematischen Gebieten unverzichtbar.
Lineare Algebra I+II, Analysis I–III
Elective in Data
Vorlesung: Di, Do, 10-12 Uhr, HS Weismann-Haus, Albertstr. 21a
Übung: 2-stündig, Termin wird noch festgelegt
Klausur 22.09., 10:00-12:00
Dozent:in: Angelika Rohde
Assistenz: Johannes Brutsche
Sprache: auf Englisch
Das Problem der Axiomatisierung der Wahrscheinlichkeitstheorie wurde 1933 von Kolmogorov gelöst: Eine Wahrscheinlichkeit ist ein Maß auf der Menge aller möglichen Versuchsausgänge eines zufälligen Experiments. Von diesem Ausgangspunkt entwickelt sich die gesamte moderne Wahrscheinlichkeitstheorie mit zahlreichen Bezügen zu aktuellen Anwendungen.
Die Vorlesung ist eine systematische Einführung dieses Gebietes auf maßtheoretischer Grundlage und beinhaltet unter anderem den zentralen Grenzwertsatz in der Version von Lindeberg-Feller, bedingte Erwartungen und reguläre Versionen, Martingale und Martingalkonvergenzsätze, das starke Gesetz der großen Zahlen und den Ergodensatz sowie die Brown'sche Bewegung.
notwendig: Analysis I+II, Lineare Algebra I, Stochastik I
nützlich: Analysis III
Advanced Lecture in Stochastics
Elective in Data
Probability Theory III: Stochastic Analysis (Wahrscheinlichkeitstheorie III: Stochastische Analysis)
Vorlesung: Mi, 14-16 Uhr, HS II, Albertstr. 23b, Do, 10-12 Uhr, SR 404, Ernst-Zermelo-Str. 1
Übung: 2-stündig, Termin wird noch festgelegt
Dozent:in: David Criens
Assistenz: Samuel Adeosun
Sprache: auf Englisch
This lecture builds the foundation of one of the key areas of probability theory: stochastic analysis. We start with a rigorous construction of the It^o integral that integrates against a Brownian motion (or, more generally, a continuous local martingale). In this connection, we learn about It^o's celebrated formula, Girsanov’s theorem, representation theorems for continuous local martingales and about the exciting theory of local times. Then, we discuss the relation of Brownian motion and Dirichlet problems. In the final part of the lecture, we study stochastic differential equations, which provide a rich class of stochastic models that are of interest in many areas of applied probability theory, such as mathematical finance, physics or biology. We discuss the main existence and uniqueness results, the connection to the martingale problem of Stroock-Varadhan and the important Yamada-Watanabe theory.
Wahrscheinlichkeitstheorie I und II (Stochastische Prozesse)
Advanced Lecture in Stochastics
Elective in Data
Vorlesung: Mi, 10-12 Uhr, SR 226, Hermann-Herder-Str. 10
Übung: 2-stündig, Termin wird noch festgelegt
Dozent:in: Sören Bartels
Assistenz: Tatjana Schreiber
Sprache: auf Englisch
The lecture addresses algorithmic aspects in the practical realization of mathematical methods in big data analytics and machine learning. The first part will be devoted to the development of recommendation systems, clustering methods and sparse recovery techniques. The architecture and approximation properties as well as the training of neural networks are the subject of the second part. Convergence results for accelerated gradient descent methods for nonsmooth problems will be analyzed in the third part of the course. The lecture is accompanied by weekly tutorials which will involve both, practical and theoretical exercises.
Numerik I, II oder Basics in Applied Mathematics
Elective in Data
Vorlesung: Mo, 14-16 Uhr, HS II, Albertstr. 23b
Übung: Mi, 16-18 Uhr, SR 403, Ernst-Zermelo-Str. 1
Dozent:in: Ernst August v. Hammerstein
Assistenz: Sebastian Hahn
Sprache: auf Englisch
Lévy-Prozesse sind das zeitstetige Analogon zu Irrfahrten (random walks) in diskreter Zeit, da sie definitionsgemäß ebenfalls unabhängige und stationäre Zuwächse besitzen. Sie bilden eine fundamentale Klasse stochastischer Prozesse, die vielfache Anwendungen in der Versicherungs- und Finanzmathematik, der Warteschlangentheorie und auch in der Physik und Telekommunikation gefunden haben. Auch die Brownsche Bewegung und der Poisson-Prozess, die vielleicht schon aus anderen Vorlesungen bekannt sind, gehören zu dieser Klasse. Trotz ihrer Reichhaltigkeit und Flexibilität sind Lévy-Prozesse üblicherweise sowohl analytisch wie auch numerisch sehr handhabbar, da ihre Verteilung durch ein einzelnes eindimensionales, unbegrenzt teilbares Wahrscheinlichkeitsmaß erzeugt wird.
Die Vorlesung beginnt mit einer Einführung in unbegrenzt teilbare Verteilungen und der Herleitung der berühmten Lévy-Khintchine-Formel. Danach wird erläutert, wie Lévy-Prozesse daraus entstehen und wie die Charakteristiken der Verteilungen die Pfadeigenschaften der zugehörigen Prozesse beeinflussen. Nach einem kurzen Blick auf die Methode der Subordination wird abschließend die Optionsbewertung in von Lévy-Prozessen getriebenen Finanzmarktmodellen diskutiert.
notwendig: Wahrscheinlichkeitstheorie I
nützlich: Wahrscheinlichkeitstheorie II (Stochastische Prozesse)
Elective in Data
Vorlesung: Mi, 12-14 Uhr, HS II, Albertstr. 23b
Übung: 2-stündig, Termin wird noch festgelegt
Dozent:in: Thorsten Schmidt
Assistenz: Simone Pavarana
Sprache: auf Englisch
In this lecture we will study new and highly efficient tools from machine learning which are applied to stochastic problems. This includes neural SDEs as a generalisation of stochastic differential equations relying on neural networks, transformers as a versatile tool not only for languages but also for time series, transformers and GANs as generator of time series and a variety of applications in Finance and insurance such as (robust) deep hedging, signature methods and the application of reinforcement learning.
Wahrscheinlichkeitstheorie. Für einige Teile wird zudem ein gutes Verständnis stochastischer Prozesse gebraucht. In der Vorlesung wird dazu eine (sehr) kurze Einführung gegeben, so dass es für schnell Lernende möglich ist, der Veranstaltung auch ohne die Vorlesung 'Stochastische Prozesse' zu folgen.
Elective in Data
Vorlesung: Mi, 14-16 Uhr, SR 226, Hermann-Herder-Str. 10
Übung: 2-stündig, Termin wird noch festgelegt
Dozent:in: Patrick Dondl
Assistenz: Eric Trébuchon
Sprache: auf Englisch
This course provides a comprehensive introduction to mathematical modeling. We will learn the systematic process of translating real-world problems into mathematical frameworks, analyzing them using appropriate mathematical tools, and interpreting the results in practical contexts. The course covers both discrete and continuous modeling approaches, with emphasis on differential equations, variational problems, and optimization techniques. Through case studies in physics, biology, engineering, and economics, students will develop skills in model formulation, validation, and refinement. Special attention is given to dimensional analysis, stability theory, and numerical methods necessary for implementing solutions with a focus on numerical methods for ordinary differential equations. The course combines theoretical foundations with hands-on experience in computational tools for model simulation and analysis.
Analysis I, II, Lineare Algebra I, II, Numerik I, II
Elective in Data
Numerical Optimization
Übung / flipped classroom: Di, 14-16 Uhr, HS II, Albertstr. 23b
Klausur: Datum wird noch bekanntgegeben
Dozent:in: Moritz Diehl
Assistenz: Léo Simpson
Sprache: auf Englisch
The aim of the course is to give an introduction into numerical methods for the solution of optimization problems in science and engineering. The focus is on continuous nonlinear optimization in finite dimensions, covering both convex and nonconvex problems. The course divided into four major parts:
The course is organized as inverted classroom based on lecture recordings and a lecture manuscript, with weekly alternating Q&A sessions and exercise sessions. The lecture is accompanied by intensive computer exercises offered in Python (6 ECTS) and an optional project (3 ECTS). The project consists in the formulation and implementation of a self-chosen optimization problem or numerical solution method, resulting in documented computer code, a project report, and a public presentation. Please check the website for further information.
notwendig: Analysis I–II, Lineare Algebra I–II
nützlich: Einführung in die Numerik
Elective in Data
Die Seminarplätze werden in der Regel am Ende der Vorlesungszeit des Wintersemesters vergeben. Im Kommentierten Vorlesungsverzeichnis wird für jedes Seminar beschrieben, ob und wie eine Voranmeldung erfolgen muss und wann die Vorbesprechung stattfindet.Sofern Sie einen Platz in einem Seminar erhalten haben, müssen Sie sich noch online zur Prüfung anmelden; der Anmeldezeitraum läuft voraussichtlich vom 1. März bis 14. April 2025.
Seminar: Mo, 12-14 Uhr, online, -
Voranmeldung: per E-Mail an Diyora Salimova
Vorbesprechung 14.04., 15:00, über Zoom (bitte schreiben Sie der Dozentein, falls der Termin nicht passt)
Vortragsbesprechungen (Tutorium zum Seminar): Termine nach Vereinbarung
Dozent:in: Diyora Salimova
Sprache: Vortrag/Teilnahme auf Deutsch oder Englisch möglich
In recent years, deep learning have been successfully employed for a multitude of computational problems including object and face recognition, natural language processing, fraud detection, computational advertisement, and numerical approximations of differential equations. Such simulations indicate that neural networks seem to admit the fundamental power to efficiently approximate high-dimensional functions appearing in these applications.
The seminar will review some classical and recent mathematical results on approximation properties of deep learning. We will focus on mathematical proof techniques to obtain approximation estimates on various classes of data including, in particular, certain types of PDE solutions.
Grundlagen der Funktionalanalysis, der Numerik partieller Differentialgleichungen und der Wahrscheinlichkeitstheorie.
Elective in Data
Mathematical Seminar
Dozent:in: Harald Binder
Sprache: Vortrag/Teilnahme auf Deutsch oder Englisch möglich
Zur Beantwortung komplexer biomedizinischer Fragestellungen aus großen Datenmengen ist oft ein breites Spektrum an Analysewerkzeugen notwendig, z.B. Deep-Learning- oder allgemeiner Machine-Learning-Techniken, was häufig unter dem Begriff "`Medical Data Science"' zusammengefasst wird. Statistische Ansätze spielen eine wesentliche Rolle als Basis dafür. Eine Auswahl von Ansätzen soll in den Seminarvorträgen vorgestellt werden, die sich an kürzlich erschienenen Originalarbeiten orientieren. Die genaue thematische Ausrichtung wird noch festgelegt.
Gute Kenntnisse in Wahrscheinlichkeitstheorie und Mathematischer Statistik.
Elective in Data
Mathematical Seminar
Seminar: Numerik partieller Differentialgleichungen
Seminar: Mo, 12-14 Uhr, SR 226, Hermann-Herder-Str. 10
Vorbesprechung 04.02., 12:00, Raum 209, Hermann-Herder-Str. 10, Bei Verhinderung bei der Vorbesprechung Anmeldung per E-Mail an Sören Bartels.
Dozent:in: Sören Bartels
Assistenz: Vera Jackisch, Tatjana Schreiber
Sprache: Vortrag/Teilnahme auf Deutsch oder Englisch möglich
Im Seminar sollen weiterführende Themen der Theorie und Numerik partieller Differentialgleichungen behandelt werden. Dazu gehören die iterative Lösung der entstehenden linearen Gleichungssysteme mit Mehrgitter- und Gebietszerlegungsmethoden, die adaptive Verfeinerung von Finite-Elemente-Gittern, die Herleitung einer Approximationstheorie mit expliziten Konstanten sowie die Lösung nichtlinearer Probleme.
Einführung in Theorie und Numerik partieller Differentialgleichungen
Elective in Data
Mathematical Seminar
Seminar: Die Wiener-Chaos-Zerlegung und (nicht-)zentrale Grenzwertsätze
Dozent:in: Angelika Rohde
Sprache: Vortrag/Teilnahme auf Deutsch oder Englisch möglich
Wohingegen lineare Transformationen von Gaußprozessen ihre gaußsche Eigenschaft bewahren, gilt dies für nichtlineare Funktionale, beispielsweise additive Funktionale der Form \[\int_0^T f(X_s) ds\qquad \text{ oder }\qquad \sum_{k=1}^n f(X_{k/n}),\] im Allgemeinen nicht. Die Wiener-Chaos-Zerlegung bietet einen Rahmen zur Analyse nichtlinearer Funktionale von Gaußprozessen. Es handelt sich hierbei um eine orthogonale Zerlegung des Raumes \[L^2(\mathbb{P}) = \bigoplus_{k=1}^\infty \mathcal{H}_k\] der bezüglich \(\mathbb{P}\) quadratintegrierbaren Zufallsvariablen, wobei \(\mathbb{P}\) ein gaußsches Wahrscheinlichkeitsmaß ist. Dieses Konzept verallgemeinert dabei die Eigenschaften orthogonaler Polynome bezüglich eines Wahrscheinlichkeitsmaßes auf der reellen Achse auf ein (potentiell) unendlichdimensionales Szenario. Es stellt sich heraus, dass Elemente eines Wiener-Chaos \(\mathcal{H}_k\) als mehrfache Wiener-Itô-Integrale dargestellt werden können, welche wiederum gut verstandene Objekte sind.
In diesem Seminar werden wir die grundlegenden Eigenschaften des Wiener-Chaos untersuchen, beginnend mit der Hermite-Polynombasis. Anschließend wenden wir uns fortgeschrittenen Themen wie Anwendungen im Malliavin-Kalkül zu, einem unendlichdimensionalen Differential-Kalkül auf gaußschen Wahrscheinlichkeitsräumen (stochastische Variationsrechnung). Des Weiteren werden zentrale und nichtzentrale Grenzwertsätze für nichtlineare Funktionale von gaußschen und nicht-gaußschen Prozessen sowie Invarianzprinzipien behandelt.
Notwendige Vorkenntnisse bestehen nur aus Kenntnissen der Wahrscheinlichkeitstheorie I.
Für einige Vorträge sind Vorkenntnisse der Wahrscheinlichkeitstheorie II (Stochastische Prozesse) nützlich. Ihre individuellen Vorkenntnisse können bei der Vergabe der Themen jedoch selbstverständlich berücksichtigt werden.
Elective in Data
Mathematical Seminar
Hinweis: Nur verwendbar im Studiengang "Mathematics in Data and Technology"
Dozent:in: Nadine Binder
Sprache: Vortrag/Teilnahme auf Deutsch oder Englisch möglich
Imagine being able to use routine data such as diagnoses, lab results, and medication plans to answer medical questions in innovative ways and improve patient care. In this seminar, we will learn to identify relevant data, understand suitable analysis methods, and what to consider when applying them in practice. Together, we will analyze scientific studies on routine data and discuss clinical questions, the methods used, and their feasibility for implementation.
What makes this seminar special: Medical and mathematics students collaborate to understand scientific studies from both perspectives. When possible, you will work in pairs (or individually if no pair can be formed) to analyze a study from your respective viewpoints and prepare related presentations. You may test available programming code or develop your own approaches to replicate the methods and apply them to your own questions. The pairs can be formed during the preliminary meeting.
notwendig: Basismodul
nützlich: Wahrscheinlichkeitstheorie I
Elective in Data
Mathematical Seminar
Details zur Veranstaltung: bitte den Veranstaltungstitel anklicken und dann dem Link folgen!
Computational Economics
Vorlesung: Mi, 14-16 Uhr, Paulussaal, Pauluskirche
Übung: Mi, 8-10 Uhr, HS 1098, KG I
Veranstaltung des Instituts für Wirtschaftswissenschaften
Dozent:in: Dirk Neumann
Elective in Data
Foundations of Artificial Intelligence
Vorlesung: Mi, 14-16 Uhr, HS 00-026, Georges-Köhler-Allee 101
Übung: Fr, 10-12 Uhr, verschiedene Räume, -
Veranstaltung der Technischen Fakultät
Dozent:in: Joschka Boedecker, Abhinav Valada
Elective in Data
Image Processing and Computer Graphics
Vorlesung (3-stündig): Di, 14-16 Uhr, HS 00-036, Georges-Köhler-Allee 101, Mi, 10-12 Uhr, HS 00-036, Georges-Köhler-Allee 101
Übung (1-stündig): Mi, 10-12 Uhr, verschiedene Räume, -
Veranstaltung der Technischen Fakultät
Dozent:in: Thomas Brox, Matthias Teschner
Elective in Data
Veranstaltung des Instituts für Wirtschaftswissenschaften
Dozent:in: Ekaterina Kazak
Elective in Data
Weitere Veranstaltungen können nach Absprache mit dem Fachprüfungsausschuss als Elective in Data oder als Elective zugelassen werden.