Alumni-Preise

[Preisverleihung]

Die Alumnae- und Alumni-Preise werden seit 2010 vom Förderverein Alumni Freiburg e.V. für hervoragende Bachelor- und Master-Arbeiten vergeben. Die Preise werden bei der jährlichen Abschlussfeier der Fakultät Anfang Juli überreicht.

2023    J. Assefa, C.S. Bartnick, F. Wassmer

Johannes Assefa

Johannes Assefa erhält den Alumni-Preis 2023 für seine Master-Arbeit:
„Cylindrical Stochastic Integration“

[Bild Johannes Assefa]

Zylindrische Prozesse zeichnen sich durch die Eigenschaft aus, dass sämtliche endlichdimensionalen linearen Projektionen herkömmliche stochastische Prozesse sind. Diese Struktur erweist sich insbesondere aus praktischer Perspektive als äußerst bedeutsam für Modelle im Bereich von Zinsen, Energie und Lebensversicherungsprodukten, bei denen Diskontinuitäten in der nanziellen Begriffsstruktur auftreten können.

Ein prominentes Beispiel dafür ist das Heath-Jarrow-Morton-Modell, das Anleihepreise mithilfe ihrer Terminzinssätze parametrisiert. Aktuelle Entwicklungen zeigen, dass maßwertige stochastische Prozesse einen geeigneten Rahmen für die Modellierung solcher Terminzinsstrukturen bieten, die unstetig in ihrer Restlaufzeit sind und beispielsweise Sprünge aufweisen. Die Konstruktion maßwertiger stochastischer Integrale, die für diese Anwendung erforderlich ist, stößt jedoch auf komplexe stochastisch-analytische Herausforderungen.

In dieser Arbeit präsentieren wir eine —neue— zylindrische Integrationstheorie zur Modellierung unstetiger Terminzinsstrukturen, die die tiefgreifenden stochastisch-analytischen Schwierigkeiten bei der Konstruktion maßwertiger stochastischer Integrale umgeht. Ein Großteil der vorhandenen Literatur beschäftigt sich mit der Konstruktion eines nicht-zylindrischen Integrals in Bezug auf einen zylindrischen Integrator. Wir hingegen nehmen den zylindrischen Ansatz vollständig an und demonstrieren in umfassender Allgemeinheit, dass jedes Integral mithilfe einer simplen Anwendung eines Hom-Funktors zylindrisiert werden kann. Das zentrale Resultat liegt in der Entwicklung einer milden Lösungstheorie für stochastische Evolutionsgleichungen. Diese Theorie basiert auf der neu entwickelten zylindrischen Integrationstheorie und bietet einen geeigneten Rahmen zur Modellierung von unstetigen Terminzinsstrukturen gemäß dem Heath-Jarrow-Morton- Modell.

In einem zweiten Teil widmen wir uns der stochastischen Integration mittels Vektormaßen, also additiven Mengenfunktionen, die Werte in einem potenziell unendlichdimensionalen Vektorraum annehmen. Unter geeigneten Voraussetzungen stellen Vektormaße in der Konstruktion eines Maßintegrals nach R. G. Bartle ein Pendant zu "guten" Integratoren dar, also stochastischen Prozessen, die ein wohlde niertes elementares stochastisches Integral erzeugen. Diese Äquivalenz bleibt auch dann erhalten, wenn wir zu einem zylindrischen Kontext übergehen: Es besteht eine bornologische Isomorphie zwischen dem Raum aller zylindrischen Vektormaße und dem Raum aller zylindrischen "guten" Integratoren, was bedeutet, dass beide Räume eins zu eins korrespondieren und der Begriff der Beschränktheit von Mengen äquivalent ist. Basierend auf diesen Erkenntnissen zeigen wir, dass zylindrische Vektormaße als bestimmte operatorwertige Vektormaße betrachtet werden können.

Durch diesen zweiten Teil erkennen wir insbesondere, dass bei der Zylindrifizierung bestimmter Integrale mittels eines Hom-Funktors auf natürliche Weise operatorwertige Vektormaße entstehen. Diese Perspektive eröffnet einen maßtheoretischen Ansatz zur Untersuchung zylindrischer stochastischer Integration.

[nach oben]

Charlotte Sophie Bartnick

Charlotte Bartnick erhält den Alumni-Preis 2023 für ihre Master-Arbeit:
„Gruppenkonfiguration in stabilen Theorien“

[Bild Charlotte Sophie Bartnick]

In der geometrischen Stabilitätstheorie, einem Teilgebiet der Modelltheorie, spielen definierbare Gruppen eine wichtige Rolle. So hilft es zum Verständnis der Komplexität einer Struktur zu erkunden, ob und wenn ja welche (unendlichen) Gruppen definierbar sind.

Die Masterarbeit stellt die Gruppenkonfiguration als ein wichtiges Werkzeug zur Untersuchung von Gruppen in stabilen Theorien vor. Nachdem zunächst Grundlagen der Theorie stabiler Gruppen eingeführt wurden, wird in der Arbeit erklärt, wie man eine Gruppenkonfiguration aus einer (typ-)definierbaren Gruppe erhält. Es handelt sich dabei um ein Inzidenzdiagramm aus sechs Punkten, welches in stabilen Theorien äquivalent zu der Existenz einer Gruppe ist.

Diese Äquivalenz ist ein Resultat von Ehud Hrushovski, welches anschließend bewiesen wird: Aus einer Gruppenkonfiguration können Keime definierbarer Funktionen gewonnen werden. Auf dieser Grundmenge wird, inspiriert durch eine Methode von André Weil, ein Gruppengesetz anhand der kanonisch gegebenen Verkettung definiert. Die erhaltene Gruppe lässt sich als inverser Limes definierbarer Gruppen darstellen.

Im letzten Teil werden als Anwendung die definierbaren Gruppen in der instabilen Struktur (ℝ,0,1,+,-, · ) beschrieben. Ehud Hrushovski und Anand Pillay zeigten, dass diese lokal isomorph zu der Untergruppe der reellen Punkte einer algebraischen Gruppe sind. Ihr Beweis erfolgt durch Betrachten der zur definierbaren Gruppe gehörigen Inzidenzkonfiguration. Diese liefert im algebraischen Abschluss, dessen Theorie stabil ist, eine definierbare Gruppe, welche isomorph zu einer algebraischen Gruppe ist. Der enge Zusammenhang zwischen dem Körper ℝ und seinem algebraischen Abschluss erzwingt, dass die algebraische Gruppe bereits über ℝ definierbar ist, und erlaubt, einen lokalen Isomorphismus zu konstruieren.

[nach oben]

Friedrich Wassmer

Friedrich Wassmer erhält den Alumni-Preis 2023 für seine Master-Arbeit:
„Singular Solutions and Adaptive Approximations of Total Variation Problems“

[Bild Friedrich Wassmer]

Total-Variationsprobleme treten oft in der Bildverarbeitung auf, zum Beispiel beim Entrauschen von Bildern. In der Arbeit wird das in der Bildentrauschung häufig genutzte Rudin-Osher-Fatemi-Modell als Beispiel genutzt, um numerische Methoden zur Approximation der Lösung über adaptiv verfeinerte Gitter zu entwickeln.

Es ist bereits bekannt, dass die P1-Finite-Elemente-Methode in diesem Fall suboptimale Konvergenz aufweist und in neueren Arbeiten von Chambolle & Pock und Bartels wurde die Approximation über Crouzeix-Raviart finite Elemente analysiert und Fehlerabschätzungen aufgestellt, wenn die duale Lösung des Problems lipschitzstetig ist.

In der Arbeit wird ein Beispiel mit einer nicht-lipschitzstetigen dualen Lösung des Rudin-Osher-Fatemi-Modells betrachtet, bei dem die optimale Konvergenzrate trotzdem noch erreicht wird.

Unter Verwendug von graduierten Gittern kann sogar eine lineare Konvergenzrate bei Nutzung von Crouzeix-Raviart finiten Elementen erreicht werden, wenn das Gitter um die Unstetigkeit der stückweise konstanten Lösung korrekt verfeinert wird.

Außerdem wird mithilfe eines Dual-Gap-Schätzers - vorgestellt in einer Arbeit von Bartels & Milicevic - ein Algorithmus zur adaptiven Gitterverfeinerung entwickelt, um die Konvergenz eines solchen Minimierungsproblemzu verbessern ohne im Vorhinein die Unstetigkeiten der Lösung zu kennen.

Dieser allgemeinere Ansatz führt zu verbesserten experimentellen Konvergenzraten, die etwas langsamer sind als die erzielten Konvergenzraten auf graduierten Gittern.

[nach oben]

2022    B.G. Deitmar, F.B. Glöckle, S. Hermann

Ben Gandolf Deitmar

Ben Gandolf Deitmar erhält den Alumni-Preis 2022 für seine Master-Arbeit:
„Uniform Spectral CLT for the Haar U(n) Ensemble and Spectral Analysis of the GUE with Fourier Analytic Methods“

[Bild Ben Gandolf Deitmar

Die Eigenwerte bestimmter Zufallsmatrizen scheinen sich gegenseitig 'abzustoßen'. Genauer gesagt ist es extrem unwahrscheinlich, dass sich zwei Eigenwerte nah aneinander befinden. Dies sorgt dafür, dass sie besser geeignet sind, um Integrale zu schätzen als unabhängige Punkte. Für die Schätzung mit unabhängigen Punkten besagt der zentrale Grenzwertsatz, dass der Unterschied zwischen Schätzung und tatsächlichem Integral mit Geschwindigkeit n^(-1/2) fällt, wobei n die Anzahl der Punkte ist. Wenn hingegen zur Schätzung die Eigenwerte einer bestimmten (nxn)-Zufallsmatrix verwendet werden, dann gibt es sogenannte spektrale zentrale Grenzwertsätze, nach denen der Schätzfehler mit Geschwindigkeit 1/n fällt.

Uniforme zentrale Grenzwertsätze [UCLTs] sind ein wichtiges Werkzeug der nichtparametrischen Statistik. Dabei wird der oben angesprochene Schätzfehler mit n^(1/2) multipliziert und als zufälliger Operator auf Funktionenräumen aufgefasst. Für diesen zufälligen Operator lassen sich dann unter starken Voraussetzungen an die Funktionenräume unterschiedliche UCLTs beweisen.

Etwas Ähnliches scheint auf den ersten Blick für spektrale zentrale Grenzwertsätze nicht möglich zu sein. Es gibt schon grundlegende Gegenbeispiele, wenn man als Funktionenraum eine Menge von Indikatorfunktionen von Intervallen wählt. Allerdings wird in dieser Masterarbeit für eine bestimmte Art von Zufallsmatrix gezeigt, dass spektrale UCLTs möglich sind, wenn der Funktionenraum glatt genug gewählt ist. Dabei wird die nötige Glattheit der Funktionen exakt quantifiziert. Des Weiteren werden erste Schritte unternommen, dieses Resultat auf andere Sorten von Zufallsmatrizen zu erweitern.

[nach oben]

Fabian Benedikt Glöckle

Fabian Benedikt Glöckle erhält den Alumni-Preis 2022 für seine Master-Arbeit:
„Class Number Phenomena of Invariant Trace Fields“

[nach oben]

Simone Hermann

Simone Hermann erhält den Alumni-Preis 2022 für ihre Master-Arbeit:
„Verallgemeinerte Gamow-Funktionale, Perimeter und Nichtlokalität“

Der Ursprung von sogenannten ‚Gamow-Funktionalen‘ liegt in dem aus der Physik bekannten Tröpfchenmodell von Gamow, welches einen Atomkern beschreibt, indem die Nukleonen des Atomkerns als Moleküle eines Flüssigkeits-Tropfens aufgefasst werden. Das zugehörige Gamow- Funktional, welches die Energie des Atomkerns beschreibt, setzt sich aus der Summe eines Perimeter-Terms und eines Integralterms zusammen. Das Spannende an Gamow-Funktionalen, sind die unterschiedlichen Skalierungsverhalten der beiden Summanden, welche die Untersuchung solcher Funktionale interessant machen. Der Perimeter ist der dominante Term, wenn die betrachtete Masse sehr klein ist, wohingegen der nichtlokale Integralterm für sehr große Massen überwiegt. Da bekanntermaßen das Isoperimetrische Problem durch den Ball gelöst wird, wird der Perimeter-Term durch den Ball minimiert. Im Gegensatz dazu folgt aus der ’Riesz rearrangement’-Ungleichung, dass der Integralterm unter allen Mengen mit vorgegebenem Volumen durch den Ball maximiert wird. Wichtige Eigenschaften dieses Modells sind die Minimialität von Bällen für kleine Massen, die Existenz von Minimierern bis zu einer kritischen Masse und schließlich die Nicht-Existenz von Minimierern für große Massen.

Nachdem dieses Minimierungsproblem relativ gut verstanden war, wurden in der Mathematik weitere Funktionale untersucht, die sich aus dem ursprünglichen Gamow-Funktional ableiten lassen. Ein Beispiel hierfür ist die Untersuchung des Funktionals, welches aus dem ursprünglichen Gamow- Funktional hervorgeht, indem man nach Reskalierung den Integrand durch einen allgemeineren Integralkern ersetzt. Für dieses deutlich allgemeinere Problem ist zunächst überhaupt nicht klar, ob man immer noch Aussagen über die Form von Minimierern treffen kann. Erstaunlicherweise kann man auch in diesem Fall beweisen, dass für kleine Massen das Funktional durch den Ball minimiert wird. Ein weiteres Beispiel für ein modifiziertes Gamow-Funktional ergibt sich, wenn der Standard-Perimeter durch den zusammenhängenden bzw. einfach zusammenhängenden Perimeter ersetzt wird, was eine nicht-lokale Bedingung darstellt. Das Außergewöhnliche an diesem Gamow-Funktional ist, dass der (einfach) zusammenhängende Perimeter die Nicht-Existenz von Minimierern verhindert. Die daraus resultierende Existenz von Minimierern für alle Massen sowie die Minimalität von Bällen für kleine Massen sind zentrale Eigenschaften dieses Funktionals.

Die Betrachtung des vorangehenden Gamow-Funktionals hat eine genauere Untersuchung des zusammenhängenden Perimeters motiviert. Es konnte gezeigt werden, dass der zusammenhängende Perimeter unter gewissen Bedingungen sogar singuläre Minimierer zulässt. Dies ist eine neue Erkenntnis und insbesondere ein Phänomen, das bei dem Standard-Perimeter nicht auftreten kann.

[nach oben]

2021    K. Burger, V. Vogelmann, L. Hoffmann

Klara Burger

Klara Burger erhält den Alumni-Preis 2021 für ihre Master-Arbeit:
„Estimators of Mutation Rate in Population Genetics“

[Bild Klara Burger]

Die genetische Variation einer Spezies wird sowohl von epigenetischen als auch von Faktoren, welche auf die Gene selbst wirken, beeinflusst. Bei letzteren nehmen beispielsweise Faktoren wie Mutationen, Rekombinationen, Neutrale Selektion oder Populationsstrukturen eine zentrale Rolle ein. Diese Faktoren und deren Einfluss auf die genetische Variation zu untersuchen ist das Ziel der Populationsgenetik. Dabei erhalten Vererbungsprozesse, welche die Evolution genetischen Materials über die Zeit beschreiben, besondere Aufmerksamkeit. Die mathematische Populationsgenetik liefert den Rahmen, in welchem solche Faktoren analysiert werden können. Hierbei ist das Schätzen der skalierten Mutationsrate θ eine klassische Aufgabe, da der Parameter mit der genetischen Diversität einer Population korreliert.

Künstliche Neuronale Netze sind in vielen wissenschaftlichen Bereichen weitverbreitet und werden oft in Situationen begrenzten theoretischen Einblickes verwendet. Zudem werden üblicherweise komplexe Netzwerkarchitekturen gewählt, was das Verständnis des zugrunde liegenden Lernprozesses häufig erschwert. Aus diesem Grund werden in dieser Arbeit zwei schlichte Neuronale Netze als Schätzer der skalierten Mutationsrate vorgestellt, insbesondere ein Dense Feedforward Neural Network mit keinem beziehungsweise einem Hidden Layer. Zudem wird sich zunutze gemacht, dass das Schätzen von θ theoretisch sehr gut verstanden ist, weshalb in der Arbeit auch zunächst modellbasierte Schätzer betrachtet werden. Einer der bekanntesten ist hierbei der Watterson-Schätzer, ein einfach zu berechnender, erwartungstreuer und asymptotisch konsistenter Schätzer, welcher aber auch eine hohe Varianz aufweisen kann. Daher werden auch mehrere modellbasierte Schätzer betrachtet, welche Ei Eigenschaften des Watterson-Schätzers für verschiedene Rekombinationsszenarien verbessern, insbesondere lineare Schätzer (linear im Site Frequency Spectrum) mit einer kleineren Varianz oder mittleren quadratischen Abweichung.

Abschließend werden modellbasierte Schätzer und modellfreie Schätzer, hier die Neuronalen Netze, verglichen und mithilfe von Simulationen evaluiert. Dabei kann man beobachten, dass in Szenarien, in welchen die modellbasierten Schätzer optimal sind (im Sinne minimaler Varianz bzw. mittlerer quadratischer Abweichung) die Neuronalen Netze annähernd gleichwertige Schätzer darstellen. Darüber hinaus übertreffen die Neuronalen Netze die modellbasierten Schätzer in theoretisch anspruchsvollen Szenarien. Daher stellen Neuronale Netze eine attraktive Alternative zu modellbasierten Schätzern der skalierten Mutationsrate dar, insbesondere da sie unabhängig von der Rekombinationsrate uniform gut abschneiden.

[nach oben]

Vivien Vogelmann

Vivien Vogelmann erhält den Alumni-Preis für ihre Master-Arbeit:
„The Triply Graded Link Homology – A New Approach“

[Bild Vivien Vogelmann]

Grob gesagt handelt es sich bei einer Knoteninvariante um eine Abbildung, die einem Knoten ein Objekt zuweist und äquivalente Knoten auf dasselbe abbildet. Im 20. Jahrhundert wurden eine Vielzahl polynomieller Knoteninvarianten entdeckt, wie zum Beispiel das berühmte Jones-Polynom oder später das HOMFLY-Polynom. Um 1990 entwickelte M. Khovanov eine Homologietheorie, welche sich als Kategorifizierung des Jones-Polynoms herausstellte, in dem Sinne, dass die graduierte Eulercharakteristik das Jones-Polynom liefert. Später konstruierten Khovanov und Rozansky dann eine weitere Link-Homologietheorie, versehen mit einer Dreifachgraduierung, welche das HOMFLY-Polynom kategorifiziert. In einer weiterführenden Arbeit definiert Khovanov schließlich eine dreifach graduierte Link-Homologietheorie, indem er zu jedem Zopf den zugehörigen Rouquier-Komplex betrachtet und darauf die Hochschild-Homologie anwendet. Er zeigt, dass diese Konstruktion isomorph zur Khovanov-Rozansky Homologie ist und damit selbst eine Linkinvariante liefert.

Die Motivation der Arbeit ist es, einen direkten, von der Khovanov-Rozansky Homologie unabhängigen Beweis zu führen, dass diese letztere, dreifach graduierte Link-Homologietheorie eine Linkinvariante darstellt.

Zunächst wird eine Einführung in die Theorie der Spiegelungsgruppen und Coxetersysteme gegeben, welche dann für die Definition der sogenannten Soergelschen Bimoduln essentiell sind. Diese wiederrum sind die Grundbausteine der Rouquier-Komplexe. Um die 'triply graded link homology' zu definieren, ordnet man jedem Zopf einen derartigen Komplex zu und wendet darauf die Hochschild-Homologie an, welche im Prinzip der derivierte Funktor des "im Kreis tensorieren Funktors" ist. Die Kohomologie dieses Komplexes ist ein dreifach graduierter Vektorraum. Der Beweis beschäftigt sich hauptsächlich mit der Invarianz dieser Zuordung unter dem zweiten Markovmove, welcher anschaulich das Glattziehen eines Twists beschreibt. Dafür wird eine konvergierende Spektralsequenz konstruiert, die von der Grothendieck Spektralsequenz herkommt.

[nach oben]

Lukas Hoffmann

Lukas Hoffmann erhält den Alumni-Preis für seine Bachelor-Arbeit:
„VOA=OPA – on two almost equivalent algebraic languages for chiral conformal field theory“

[Bild Lukas Hoffmann]

In der Physik spielt Quantenfeldtheorie eine zentrale Rolle in vielfältigen Teilgebieten wie etwa der Teilchenphysik, Stringtheorie, aber auch in der statistischen Physik und Festkörperphysik. Darüber hinaus sind insbesondere zweidimensionale Euklidische konforme Quantenfeldtheorien (CFTs) relevant in verschiedenen rein mathematischen Kontexten wie Monstrous Moonshine oder Mirror Symmetry.

Diese Art der CFT nimmt unter den Quantenfeldtheorien eine Sonderrolle ein, da sie sich gut mathematisch behandeln lässt. Dieser Umstand rührt vor allem daher, dass die komplexifizierte Lie Algebra infinitesimaler konformer Transformationen in zwei kommutierende Kopien der Virasoro-Algebra zerfällt. Dies hat zur Folge, dass es zu beiden Kopien jeweils eine Substruktur gibt, die besonders gut unter Kontrolle ist. Bei diesen Substrukturen handelt es sich um die sogenannten "chrialen Anteile" der CFT. Als "chirale CFTs" bilden diese einen eigenständigen Gegenstand der Forschung. Für chirale CFTs haben sich verschiedene Formalismen herausgebildet, wobei insbesondere die von R.E. Borcherds im Jahre 1986 (aus anderen Gründen) definierten "Vertex Operator Algebren" (VOAs) als "Standardsprache" hervorzuheben sind. VOAs sind seitdem intensiv erforscht worden und es gibt weitreichende Literatur über sie.

Ein auf den ersten Blick ähnlicher Ansatz wurde 1994 von K. Thielemans in seiner Dissertation unter dem Namen "Operator Produkt Algebra" (OPA) definiert. Jedoch haben OPAs bei weitem nicht die gleiche Verbreitung gefunden wie VOAs. Insbesondere durch Thielemans Implementierung endlich erzeugter OPAs für Mathematica hat sich dieser Formalismus trotzdem bis in die aktuelle Forschung hinein als nützlich erwiesen, wie etwa M.-A. Fisets Dissertation aus dem Jahr 2019 zeigt.

Gegenstand der Arbeit war es die Beziehung zwischen VOA und OPA vor dem Hintergrund chiraler CFT zu untersuchen. Zunächst lassen sich sowohl VOAs als auch OPAs als Spezialfälle einer (von mir sogenannten) "prä-z-Algebra" verstehen, also als Vektorräume mit einem Laurent-Reihen-wertigen Produkt. Als direktes Korollar der Theorie der VOAs ergibt sich, dass die Axiome einer VOA auch die einer OPA implizieren.

Die umgekehrte Richtung erweist sich jedoch als anspruchsvoller: In der Abwesenheit eines sogenannten "Nulloperator-Ideals" lassen sich schrittweise einzelne Resultate über VOAs (insbesondere Goddards Eindeutigkeitstheorem) auf OPAs übertragen. Damit kann letztlich bewiesen werden, dass jede OPA (ohne Nulloperator-Ideal) auch eine VOA bildet. Das Fehlen eines Nulloperator-Ideals ist dabei eine sowohl notwendige als auch hinreichende Bedingung.

Damit ist gezeigt, dass VOA = OPA (ohne Nulloperator-Ideal) gilt. Allerdings muss betont werden, dass es relevante Beispiele von OPAs gibt, die ein solches Ideal besitzen. Um diese in Zukunft auch in der Sprache der VOAs behandeln zu können, wird eine entsprechende Verallgemeinerung von VOAs vorgeschlagen.

[nach oben]

2020    B. Geuchen, T. Klumpp, D. Kieffer

Benedikt Geuchen

Benedikt Geuchen erhält den Alumni-Preis 2020 für seine Master-Arbeit:
„Pfadabhängige funktionale und nichtlineare affine Prozesse“

[Bild Benedikt Geuchen]

Eine wichtige Aufgabe der Finanzmathematik ist die Optionspreisberechnung, also die sinnvolle Zuordnung eines Wertes zu einer Finanzoption, basierend auf den stochastischen Eigenschaften des zugrundeliegenden Basiswerts. Bei Finanzmarktmodellen in stetiger Zeit verwendet man hierbei Techniken der stochastischen Analysis. Hierzu zählt zum Beispiel die Itō-Formel, die man als "Hauptsatz der Differential- und Integralrechnung" für das stochastische Integral auffassen kann. In den Jahren 2009 und 2010 haben Bruno Dupire, Rama Cont und David-Antoine Fournié eine funktionale Version der Formel bewiesen, bei der pfadabhängige Funktionen betrachtet werden können, also solche, die vom gesamten Verlauf des zugrunde liegenden stochastischen Prozesses abhängen können.

In der Arbeit werden Anwendungen dieser funktionalen Version der Itō-Formel auf die Optionspreisberechnung betrachtet, wobei nun insbesondere pfadabhängige Optionen wie beispielsweise asiatische Optionen betrachtet werden können. Diese Anwendungen können grob in zwei Themenbereiche eingeteilt werden. Zunächst wird eine funktionale Version der sogenannten Feynman-Kac-Gleichung bewiesen. Diese erlaubt es, Optionspreise durch das Lösen einer Differentialgleichung zu berechnen. Im zweiten Themenbereich wird das von Tolulope Fadina, Ariel Neufeld und Thorsten Schmidt entwickelte Finanzmodell nichtlinearer affiner Prozesse auf pfadabhängige Optionen verallgemeinert. Dieses Modell berücksichtigt insbesondere auch Modellunsichereit - die Problematik, dass man bei der Anwendung eines mathematischen Modells im Allgemeinen nicht mit Sicherheit wissen kann, wie die Modellparameter konkret zu wählen sind.

Im gerade genannten zweiten Themenbereich zeigt sich, dass die Optionspreise durch die Lösungen von pfadabhängigen, nichtlinearen Differentialgleichungen gegeben sind. Da die direkte Lösung hiervon nicht immer möglich ist, wird ein neuer Algorithmus entwickelt, der allgemeine funktionale Differentialgleichungen lösen kann und Techniken des maschinellen Lernens verwendet.

[nach oben]

Theresa Klumpp

Theresa Klumpp erhält den Alumni-Preis 2020 für ihre Master-Arbeit:
„Neural Word Embeddings as Matrix Factorization“

[Bild Theresa Klumpp]

Das Problem stetige Wortvektoren zu finden ist in der Computerlinguistik zentral und gut erforscht. Ziel ist es, jedem Wort eines Vokabulars einen Vektor zuzuordnen, sodass (semantisch und syntaktisch) ähnliche Wörter von ähnlichen Vektoren repräsentiert werden. Diese können beispielsweise als Input für neuronale Netze verwendet werden.

In der Master-Arbeit werden zwei bekannte neuronale Netze betrachtet, die niedrigdimensionale Wortvektoren liefern: Skip-Gram und Skip-Gram mit Negative-Sampling (SGNS). Ausgehend von der Annahme, dass die Dimension dieser Wortvektoren groß ist (mindestens so groß wie die Größe des Vokabulars), kanngezeigt werden, dass ein anderes Verfahren, nämlich das Faktorisieren einer Wort-Kontext-Matrix mithilfe von Singulärwertzerlegung, auch die Zielfunktion des neuronalen Netzes maximiert. Obwohl diese Verknüpfung für niedrigdimensionale Einbettungen nicht gemacht werden kann, liefert die Singulärwertzerlegung in diesem Fall dennoch gute Ergebnisse und in manchen Linguistik-Aufgabenstellungen funktioniert sie sogar besser als das neuronale Netz, von dem sie abstammt. Dieser Zusammenhang zwischen dem neuronalen SGNS-Netz und der Matrixzerlegung wurde 2014 von Omer Levy und Yoav Goldberg dargelegt.

Anschließend wird die Kosinus-Ähnlichkeit untersucht, die üblicherweise verwendet wird, um die Ähnlichkeit zwischen Wortvektoren zu messen. Teil der Arbeit war es, eine Formel herzuleiten, die ein heuristisches Verständnis dafür gibt, was ‘nah’ bezüglich der Kosinus-Ähnlichkeit in einem d-dimensionalen Raum überhaupt ist. Die verschiedenen Verfahren zur Findung von niedrigdimensionalen Wortvektoren werden verglichen und anhand von Aufgabenstellungen zu Wortähnlichkeit und semantischen und syntaktischen Analogien ausgewertet.

[nach oben]

Dario Kieffer

Dario Kieffer erhält den Alumni-Preis 2020 für seine Master-Arbeit:
„Approximate MLE on manifolds“

[Bild Dario Kieffer]

Sowohl Shape Analysis, mit Anwendungen in Medizin, Computational Anatomy oder Computer Vision, als auch die Verwendung differentialgeometrischer Konzepte zum Kalibrieren von Finanzmodellen basieren auf Begriffen und Resultaten aus der euklidischen Statistik, verallgemeinert auf Riemannsche Mannigfaltigkeiten. Die beim Verallgemeinern dieser Begriffe auftretenden Schwierigkeiten offenbaren sich bereits bei dem vermeintlich einfachen Versuch das arithmetische Mittel auf Mannigfaltigkeiten zu übertragen. Betrachtet man nämlich beispielhaft die zweidimensionale Sphäre zusammen mit der Addition aus dem umgebenden dreidimensionalen Raum, so sieht man direkt durch das Addieren zweier gegenüberliegender Punkte, dass das Ergebnis des arithmetischen Mittels im Allgemeinen nicht wieder auf der Sphäre liegen muss. Gerade im Fall von Mittelwerten von ortsabhängigen Daten auf der Erdoberfläche zeigt sich so die Unbrauchbarkeit dieser Verallgemeinerung des arithmetischen Mittels. Nichtsdestotrotz lassen sich unter Verwendung geeigneter Charakteristiken Erwartungswert und Varianz auch auf Mannigfaltigkeiten definieren, üblicherweise bezeichnet als Fréchet-Mittel und Fréchet-Varianz. Aufgrund der geometrischen Eigenheiten von Mannigfaltigkeiten sind Berechnungen, bzw. Schätzungen von Erwartungswert und Varianz basierend auf diesen Definitionen jedoch äußerst rechenintensiv.

Angelehnt an ein approximatives Maximum-Likelihood Schätzverfahren wurde in dieser Arbeit eine neue Methode zum Schätzen von Mittelwert und Varianz einer Normalverteilung auf Riemannschen Mannigfaltigkeiten eingeführt. Das Verfahren macht sich zu Nutze, dass sich die Dichte einer Normalverteilung auf Riemannschen Mannigfaltigkeiten durch Übergangsfunktionen Riemannscher Brownscher Bewegungen definieren lässt. Mittelwert und Varianz sind hierbei allerdings nicht mehr durch das Fréchet-Mittel, bzw. die Fréchet-Varianz gegeben, sondern werden implizit durch die Verteilung definiert. Der Zusammenhang zwischen Wärmeleitungskern und Übergangsfunktion einer Brownschen Bewegung liefert unter Verwendung der asymptotischen Entwicklung des Wärmeleitungskerns dann eine Approximation der Dichte einer auf diese Weise definierten Normalverteilung.

Der Schätzer für den Erwartungswert und die Varianz der Normalverteilung wurde angelehnt an die Definition eines Maximum-Likelihood Schätzers mit Hilfe der approximierten Dichten der Normalverteilung definiert. Unter geeigneten Konvergenzannahmen an das auf den Tangentialraum zurückgezogene Stichprobenmittel und an die Stichprobenvarianz, sowie der Einschränkung, dass der Parameterraum kompakt ist, wurde die stochastische Konvergenz dieses Schätzers gegen den wahren Parameter gezeigt. Für den Beweis der Aussage wurde die Theorie über M-Schätzer verwendet, sowie eine neue Modifikation des Glivenko-Cantelli Theorems eingeführt, bei der Funktionenklassen durch einen zusätzlichen Parameter indiziert sind.

[nach oben]

2019    A. Kaltenbach, J. Stiefel

Alex Kaltenbach

Alex Kaltenbach erhält den Alumni-Preis 2019 für seine Master-Arbeit:
„Verallgemeinerte nichtlineare Evolutionsgleichungen“

[Bild Alex Kaltenbach]

Die Theorie pseudomonotoner Operatoren ist ein zuverlässiges Werkzeug zum Nachweis der Lösbarkeit eines nichtlinearen Problems. Im Zentrum steht der Hauptsatz über pseudomonotone Operatoren, zurückgehend auf H. Brezis, nach dem jeder pseudomonotone, beschränkte und koerzive Operator, der einen reflexiven Banachraum in seinen Dualraum abbildet, surjektiv sein muss.

Insbesondere wies J.-L. Lions am Beispiel der instationären p-Navier-Stokes-Gleichung nach, dass die Methoden der Theorie pseudomonotoner Operatoren auch auf zeitabhängige Probleme, sogenannte Evolutionsprobleme, adaptiert werden können. Jedoch waren dabei technische Zusatzvoraussetzungen notwendig, um den bekannten Kompaktheitssatz von Aubin-Lions anwenden zu können. Mit sehr wenigen Voraussetzungen kommt dagegen die Anwendung des Hauptsatzes über pseudomonotone Perturbationen maximal monotoner Operatoren, zurückgehend auf F. E. Browder, aus. Der daraus resultierende instationäre Existenzsatz ist allerdings nur auf wenige Probleme anwendbar.

So gelang es bis dato nicht, ein zufriedenstellendes Analogon des Hauptsatzes über pseudomonotone Operatoren für Evolutionsprobleme zu beweisen. Die Ursache lag vor allem im verwendeten Stetigkeitsbegriff. Tatsächlich stellte sich Pseudomonotonie als ein für Evolutionsprobleme ungeeigneten Stetigkeitsbegriff heraus, da dieser die zusätzlichen Informationen der Zeitableitung, die im stationären Fall gerade nicht zur Verfügung stehen, außer Acht lässt.

Die Arbeit bezieht diese zusätzlichen Informationen mit ein und führt zu diesem Zweck eine geeignete Verallgemeinerung des üblichen Pseudomonotoniebegriffs ein, die sogenannte Bochner-Pseudomonotonie. Indem man Beweismethoden von R. Landes und N. Hirano verbindet, gelingt es das gewünschte instationäre Analogon des Hauptsatzes über pseudomonotone Operatoren zu beweisen. Dabei kommt man ohne technische Zusatzvoraussetzungen oder den Satz von Aubin-Lions aus. Insbesondere ist der bewiesene Existenzsatz sehr allgemein formuliert und damit auf einer Vielzahl instationärer Probleme anwendbar.

[nach oben]

Jakob Stiefel

Jakob Stiefel erhält den Alumni-Preis 2019 für seine Master-Arbeit:
„The Hungry random Walker“

[Bild Jakob Stiefel]

Irrfahrten sind grundliegende Objekte der Wahrscheinlichkeitstheorie und finden Anwendungen auf zahlreichen wissenschaftlichen Gebieten. Es existiert umfassende Literatur zu mathematischen Resultaten über einfache (unbiased) Irrfahrten auf Gittern wie beispielsweise den d-dimensionalen ganzen Zahlen. Hierbei werden Standardtechniken der Wahrscheinlichkeitstheorie genutzt, z.B. Martingal- und Ergodentheorie, Approximation durch Brownsche Bewegung oder Kombinatorik.

Für einige Anwendungen ist es notweidig die Annahme einer einfachen Irrfahrt fallen zu lassen. Möchte man beispielsweise die Bewegung eines hungrigen Individuums modellieren, sollte auf dem Gitter Nahrung vorhanden sein und sich das Indivuduum mit höherer Wahrscheinlichkeit zu neuer Nahrung bewegen. Dies führt zu einer komplexeren Gitterstruktur und zu nicht-markovschen Übergangswahrscheinlichkeiten, da das Nahrungsvorkommen auf dem Gitter von der bisherigen Route des Individuums beeinflusst wird.

In Modellen dieser Art erweisen sich viele der oben genannten Standardmethoden als unbrauchbar. In großen Dimensionen ergeben sich Approximationsresultate gegen eine Brownsche Bewegung. In kleinen Dimensionen, insbesondere Dimensionen Zwei und Drei, erweist sich die Struktur des Gitters als kompliziert, Resultate basieren oft auf Simulationen.

Die Arbeit konzentriert sich daher auf den eindimensionalen Fall und analysiert die asymptotische mittlere Größe des Gebiets (Range), das von einem hungrigen Individuum nach langer Zeit besucht wird, in einem Modell, das auch als Once-reinforced Random Walk bekannt ist. In diesem Modell wird die Größe des „Hungers“ durch einen vorgegebenen Parameter gesteuert. Mit Hilfe Tauber‘scher Theorie wird nachgewiesen, dass sich auf den eindimensionalen ganzen Zahlen die ersten beiden Momemte der Gebietsgröße asymptotisch qualitativ wie eine einfache Irrfahrt verhalten, wobei der Hunger-Parameter über eine Konstante Einfluss nimmt, die explizit berechnet werden kann. Die Methode lässt sich nicht auf Dimension Zwei verallgemenern, es ergeben sich lediglich Apprixomationsresultate in einem leicht angepassten Modell.

[nach oben]

2018    V. C. Gahlen, N. Sturma

Vera Christina Gahlen

Vera Christina Gahlen erhält den Alumni-Preis 2018 für ihre Master-Arbeit:
„Neeman-Forcing“

Die Forcing-Technik ist eine Beweismethode in der Mengenlehre, mithilfe derer relative Konsistenzbeweise geführt werden. Sie wurde 1963 von Paul Cohen entwickelt und verwendet, um die Unabhängigkeit der Kontinuumshypothese vom Axiomensystem ZFC zu beweisen.

Gegenstand der Abschlussarbeit ist die Ausarbeitung eines Beweises Itay Neemans der Konsistenz des Proper Forcing Axioms relativ zur Existenz einer superkompakten Kardinalzahl.

Die Idee für Beweise dieses Satzes ist die Iteration properer Forcing-Halbordnungen mithilfe einer Laver Funktion, welche eine repräsentative Menge solcher Halbordnungen bereitstellt. Im Unterschied zum ursprünglichen Beweis verwendet Neeman eine Iteration mit endlichem statt abzählbarem Träger. Der Vorteil einer Iteration mit endlichem Träger ist die mögliche Anpassung der konstruierten Forcing-Halbordnung für andere Forcing Axiome. Allerdings muss auf andere Weise sichergestellt werden, dass die Iteration proper ist, da diese Eigenschaft im Allgemeinen von Iterationen mit endlichen Trägern nicht erhalten wird. Zu diesem Zweck verwendet Neeman seine Halbordnung der Folgen von Modellen zweier Arten als Nebenbedingungen in der Iteration.

Die Arbeit folgt den Ausführungen Neemans im Rahmen seines Artikels Forcing with sequences of models of two types. Dazu werden zunächst die zugrundeliegenden Konzepte sowie Neemans Modell-Folgen-Halbordnung eingeführt. Der größte Aufwand richtet sich im Folgenden darauf die Wirkung dieser Nebenbedingungen detailliert nachzuvollziehen, um zu zeigen, dass die Iteration tatsächlich für gewisse Modelle proper ist. Das letzte Kapitel widmet sich der Ausarbeitung der Beweisskizze Neemans zum zentralen Satz der Arbeit.

[nach oben]

Nils Sturma

Nils Sturma erhält den Alumni-Preis 2018 für seine Bachelor-Arbeit:
„Formale Gruppengesetze“

[Bild Nils Sturma]

Formale Gruppengesetze werden in verschiedenen Bereichen der Mathematik, wie zum Beispiel in der Zahlentheorie, algebraischen Topologie und Lie-Theorie benutzt. Man könnte sich sehr lange mit ihnen beschäftigen, daher werden im Rahmen der Bachelor-Arbeit nur einzelne Aspekte betrachtet. Kurz gesagt ist ein eindimensionales formales Gruppengesetz F eine formale Potenzreihe in zwei Variablen der Form F(X, Y) = X + Y + (Terme mit Grad > 1), die sich assoziativ verhält: F(F(X, Y ),Z) = F(X, F(Y,Z)). Um Eigenschaften und Sätze über formale Gruppengesetze zu zeigen, bietet es sich häufig an, eine vollständige Induktion über den Grad der vorliegenden Potenzreihen zu führen.

Der Fokus der Arbeit liegt auf eindimensionalen formalen Gruppengesetzen. Zunächst werden eindimensionale formale Gruppengesetze über einem Körper der Charakteristik null untersucht. Es lässt sich recht einfach feststellen, dass diese alle isomorph sind. Ein wesentlicher Teil der Arbeit beschäftigt sich im Anschluss mit der Klassifikation von eindimensionalen kommutativen formalen Gruppengesetzen über einem algebraisch abgeschlossenen Körper mit positiver Charakteristik. Dazu wird eine Invariante, die Höhe eines formalen Gruppengesetzes, eingeführt und anschließend gezeigt, dass alle formalen Gruppengesetze der gleichen Höhe isomorph sind.

Im zweiten Teil der Arbeit werden interessante Beispiele formaler Gruppengesetze betrachtet. Diese stammen von Gruppenstrukturen auf Mannigfaltigkeiten und algebraischen Varietäten. In einer Umgebung des neutralen Elements einer Lie-Gruppe kann man Koordinaten wählen und die Multiplikationsabbildung durch eine Taylorreihenentwicklung ausdrücken. Dies wird in der Arbeit konkret durchgeführt. Anschließend wird bewiesen, dass die entstandene formale Taylorreihe auch tatsächlich ein formales Gruppengesetz ist. Somit lässt sich aus jeder Lie-Gruppe ein formales Gruppengesetz konstruieren. Für affine algebraische Gruppen funktioniert dies in ganz ähnlicher Art und Weise. Auch hier kann man am neutralen Element eine Taylorreihenentwicklung durchführen und erhält ein formales Gruppengesetz.

[nach oben]

2017    T. Körber, F. Schmitz

Thomas Körber

Thomas Körber erhält den Alumni-Preis 2017 für seine Master-Arbeit:
„Sharp estimates for the principal eigenvalue of p-operators“

[Bild Thomas Körber]

Optimale Abschätzungen für die Eigenwerte eines Differentialoperators spielen in verschiedenen Gebieten eine wichtige Rolle: Sie implizieren scharfe untere Schranken für die Konvergenzgeschwindigkeit numerischer Verfahren, liefern optimale Konstanten für gewisse Ungleichungen und beschreiben die minimale Anregungsenergie von physikalischen Systemen. Für den Laplace-Operator auf einer Riemannschen Mannigfaltigkeit bewiesen 1984 Zhong und Yang eine optimale untere Schranke für den kleinsten Eigenwert, welche nur von dem Diameter, der Dimension, und der Ricci-Krümmung der Mannigfaltigkeit abhängt. Im Jahre 2012 konnte Valtorta ein entsprechendes Resultat für den nichtlinearen p-Laplace-Operator beweisen. Mithilfe der Bochner-Formel kann man zeigen, dass der Laplace-Operator alle Informationen über den Diameter, die Dimension und die Ricci-Krümmung einer Riemannschen Mannigfaltigkeit enthält. Die bisherigen Resultate legen deshalb nahe, dass dementsprechende Eigenwertabschätzungen auch für allgemeinere Differentialoperatoren zweiter Ordnung gelten sollten, vorausgesetzt diese erfüllen gewisse intrinsische Bedingungen. Tatsächlich kann man für lineare Differentialoperatoren zweiter Ordnung die drei obigen Größen auf intrinsische Weise definieren. Dabei ist allerdings zu beachten, dass die induzierten Größen nicht den geometrischen Größen der Mannigfaltigkeit entsprechen. Bakry und Qian konnten im Jahre 2000 eine entsprechende Abschätzung für elliptische Operatoren beweisen.

In dieser Arbeit wird der sogenannte nicht-lineare p-Operator eingeführt, welcher eine Verallgemeinerung des p-Laplace für lineare, elliptische Differentialoperatoren zweiter Ordnung darstellt. Zudem wird eine optimale Abschätzung für den ersten Eigenwert bewiesen, die nur vom Diameter abhängt und eine endliche Dimension sowieso nicht-negative Ricci-Krümmung voraussetzt. Dies erfolgt durch zwei Vergleichssätze, die den Gradienten sowie das Maximum der Eigenfunktion mit einem eindimensionalen Modellraum vergleichen. Die Hauptzutaten sind hierbei eine sogenannte p-Bochner-Formel für den p-Operator, sowie die Tatsache, dass die Curvature-Dimension-Ungleichung automatisch eine verbesserte Version impliziert. Der Fall der Gleichheit wird mithilfe eines Maximumprinzips bearbeitet und dabei stellt sich heraus, dass Gleichheit genau dann eintritt, wenn der Operator der eindimensionale p-Laplace-Operator ist.

[nach oben]

Felicitas Schmitz

Felicitas Schmitz erhält den Alumni-Preis 2017 für ihre Master-Arbeit:
„Deterministic games as a basis for numerical methods to approximate parabolic equations“

[Bild Felicitas Schmitz]

Parabolische Differentialgleichungen werden als Modell für viele zeitabhängige physikalische Vorgänge verwendet. Das bekannteste Beispiel ist die sogenannte Wärmeleitungsgleichung, die beschreibt, wie sich die Temperaturverteilung in einem Körper entwickelt. Oft können Differentialgleichungen nicht exakt gelöst werden. In diesem Fall verwendet man numerische Verfahren, um die Lösung der Gleichung zu approximieren. Die Entwicklung solcher Verfahren ist, vor allem für nichtlineare Gleichungen, ein aktuelles Forschungsgebiet.

Über eine Interpretation der Gleichung als deterministisches Spiel konstruierten Robert Kohn und Sylvia Serfaty im Jahre 2010 ein semidiskretes Verfahren zur Approximation von parabolischen Differentialgleichungen. Dieses Verfahren ist insbesondere deshalb interessant, weil es sich nicht auf einen einzelnen Typ von Gleichung beschränkt, sondern auf eine große Klasse von parabolischen Gleichungen anwendbar ist; speziell können mit dem Verfahren auch nichtlineare Gleichungen approximiert werden.

In der Arbeit wird untersucht, ob und wie dieses semidiskrete Verfahren vollständig diskretisiert werden kann. Für nicht näher bestimmte Gleichungen ist eine Ortsdiskretisierung im Sinne eines „Wide Stencil“-Verfahrens angemessen. Das auf diese Weise volldiskretisierte Verfahren konvergiert gegen die Viskositätslösung der zugehörigen Differentialgleichung, was unter Verwendung des Barles-Souganidis-Rahmens gezeigt wird.

Die Implementierung des Verfahrens gestaltet sich jedoch schwierig, da eine große, mit der Anzahl der Gitterpunkte skalierende Menge an Sattelpunktproblemen zu lösen ist. Aufgrund der Ortsdiskretisierung findet die innere Optimierung im Gegensatz zur äußeren nur über einer endlichen Menge statt. Deshalb wären die Sattelpunkte analytisch und effizient berechenbar, wenn die Maximierung und die Minimierung vertauscht werden dürften. Dies ist aber nicht der Fall: Rigoros wird nachgewiesen, dass das Verfahren mit vertauschten Optimierungen nur einen Shift der Anfangswerte bewirkt und somit ganz gewiss nicht gegen die gesuchte Lösung konvergiert. Die Approximierung von Sattelpunktproblemen ist hingegen (mit den bisher bekannten Methoden) sehr aufwändig. Insgesamt wird deshalb die Konstruktion eines effizienten numerischen Algorithmus auf Grundlage von Kohns und Serfatys Idee als unwahrscheinlich angesehen.

[nach oben]

2016    P. Schwer, S. Steinhauser, J. Weiß

Pascal Schwer

Pascal Schwer erhält den Alumni-Preis 2016 für seine Diplomarbeit:
„Borel*-Mengen und analytische Mengen in verallgemeinerten Baire-Räumen“

[Bild Pascal Schwer]

In der verallgemeinerten deskriptiven Mengenlehre werden verallgemeinerte Baire-Räume (für überabzählbare Kardinalzahlen) betrachtet. Interessant ist dabei der Vergleich zwischen zwei unterschiedlichen Verallgemeinerungen der aus dem klassischen abzählbaren Fall bekannten Borel-Mengen: Während die eine Verallgemeinerung einfach eine erweiterte Abgeschlossenheit unter Vereinigungen fordert, ist die andere, der Begriff der Borel*-Mengen, über Gewinnstrategien bei sogenannten Borel*-Spielen auf Bäumen definiert. Strategien zu diesen Spielen beziehen sich günstigerweise in jeder Spielsituation nur auf den zuletzt erreichten Baumknoten.

Analytische und coanalytische Mengen werden in Analogie zum abzählbaren Fall mittels Projektionen abgeschlossener Mengen definiert. Sie werden in einem Exkurs der Arbeit mit einer formalen Sprache beschrieben, bei der, einfach ausgedrückt, Existenzquantifizierung analytischen Mengen entspricht und Allquantifizierung coanalytischen Mengen.

Ein weiteres Kapitel widmet sich dem Beweis dafür, dass die Mengen, die sowohl analytisch als auch coanalytisch sind, gerade diejenigen Borel*-Mengen sind, zu denen es ein determiniertes Borel*-Spiel gibt.

Wie sich zunächst noch recht einfach feststellen lässt, sind alle Borel*-Mengen analytisch. Eine der wesentlichen Fragestellungen der Arbeit ist, ob auch gelten kann, dass alle analytischen Mengen Borel* sind. Tatsächlich ist diese Aussage unter V=L richtig und somit relativ konsistent mit ZFC.

Eine wichtige Rolle spielt dabei, dass unter V=L die Lage von Potenzmengen innerhalb der L-Hierarchie gut eingegrenzt ist und dass Limesstufen der L-Hierarchie definierbare Skolemfunktionen haben. Ebenfalls von Bedeutung ist die Absolutheit einiger wichtiger mengentheoretischer Eigenschaften, das heißt deren Vererbung bei transitiven Mengenmodellen „nach oben“ bzw. „nach unten“.

[nach oben]

Susanne Steinhauser

Susanne Steinhauser erhält den Alumni-Preis 2016 für ihre Master-Arbeit:
„Determining optimal cut-offs in the meta-analysis of diagnostic test accuracy studies“

[Bild Susanne Steinhauser]

Ein diagnostischer Test entscheidet zum Beispiel basierend auf einem Biomarker oder einem Fragebogen, ob eine Person krank ist oder nicht. Die Güte eines solchen Tests kann mit einer Diagnosestudie untersucht werden. Existieren mehrere publizierte Diagnosestudien zu einem Test, so ist es sinnvoll eine systematische Übersichtsarbeit mit einer Metaanalyse durchzuführen, um die Ergebnisse zusammenzufassen.

Für systematische Übersichtsarbeiten über Diagnosestudien, bei denen einige Studien mehr als einen Schwellenwert des Biomarkers und die dazugehörige Sensitivität und Spezifität berichten, gibt es allerdings momentan keinen weit verbreiteten Metaanalyseansatz, der diese Informationen nutzt. Das traditionelle bivariate Modell zum Beispiel geht lediglich von einem Paar Sensitivität und Spezifität pro Studie aus. Gibt es aber mehr Informationen, ist es sinnvoll diese zu nutzen.

In der Master-Arbeit wurde ein kürzlich entstandener Ansatz ausgearbeitet, der genau diese Art von Daten verwendet. Die Grundidee ist, die Verteilungsfunktion des zugrundeliegenden Biomarkers jeweils in der Gruppe der gesunden und der der kranken Patienten zu schätzen. Es wurde ein parametrischer Ansatz gewählt und die unterschiedlichen Verteilungsparameter für die beiden Gruppen geschätzt. Dies wird durch lineare Regression der transformierten Verhältnisse negativer Testergebnisse in den beiden Gruppen mithilfe eines gemischten Modells erreicht, wobei Studie als Gruppierungsfaktor fungiert. Hat man die Verteilungsfunktionen geschätzt, erhält man sowohl Schätzer für die gepoolten Ergebnisse der Diagnosestudien als auch für einen optimalen Schwellenwert des Biomarkers über alle Studien hinweg.

Die Demonstration des Ansatzes an verschiedenen Beispielen führte fast ausschließlich zu sehr überzeugenden Ergebnissen. Zudem wurde eine Simulationsstudie durchgeführt.

[nach oben]

Johannes Weiß

Johannes Weiß erhält den Alumni-Preis 2016 für seine Diplomarbeit:
„Untersuchung eines Krylov-Raum basierten Vorkonditionierers für ein matrixfreies GMRes-Verfahren“

[Bild Johannes Weiß]

In Naturwissenschaft und Technik treten bei etlichen Anwendungen lineare Gleichungssysteme auf: Diese Gleichungssysteme entstehen beispielsweise direkt in der Simulation von diskreten Systemen oder auch indirekt durch diskrete Modellierungen von Differential- und Integralgleichungen. Zur Lösung dieser linearen Gleichungssysteme sind iterative Verfahren inzwischen das Mittel der Wahl. Diese ermöglichen, im Vergleich zu direkten Verfahren, hohe Einsparungen im Speicherbedarf und damit auch in der Rechenzeit, da es oft nicht notwendig ist eine Systemmatrix zu speichern.

Bei der praktischen Anwendung von iterativen Verfahren treten jedoch trotz guter theoretischer Erkenntnisse häufig Probleme auf. So sind in typischen Anwendungen wie z.B. der Strömungsmechanik langsame Konvergenzgeschwindigkeiten zu beobachten. Einen Ausweg bietet hier die Vorkonditionierung. Die Idee dahinter ist die Transformation des ursprünglichen linearen Gleichungssystems in ein äquivalentes System, welches aber einfacher und damit schneller zu lösen ist. Die Zuverlässigkeit eines iterativen Verfahrens hängt oft mehr von einem geeigneten Vorkonditionierer ab.

Diese Arbeit behandelt die Untersuchung und Implementierung eines Vorkonditionierers in DUNE (Distributed and Unified Numerics Environment) der eng mit einem der allgemeinsten iterativen Verfahren, dem GMRes-Verfahren (Generalized Minimal Residual Algorithm) verbunden ist. Dieser kann, im Gegensatz zu vielen bekannten Vorkonditionierern, auf einem matrixfreien Verfahren aufbauen, da er keinen expliziten Zugriff auf die Einträge der Systemmatrix benötigt. Die Idee ist es, mit den Krylov-Räumen, der Hessenberg-Matrix und den Givens-Rotationen die wesentlichen Strukturen eines GMRes-Verfahrens zu nutzen. Kodiert man diese Informationen eines bereits gelösten oder auch nur zum Teil gelösten Gleichungssystems in diesem Vorkonditionierer, so kann dieser ein GMRes-Verfahren, angewandt auf ein „ähnliches“ Gleichungssystem, beschleunigen. Ein Anwendungsfall dieses speziellen Vorkonditionierers liegt dadurch z.B. in der Lösung von Evolutionsgleichungen, da hier Gleichungssysteme innerhalb von Newton-Iterationen oder über Zeitschritte hinweg in gewisser Art und Weise verwandt sind.

[nach oben]

2015    E. Bäumle, K. Hopf, D. Small

Erik Bäumle

Erik Bäumle erhält den Alumni-Preis 2015 für seine Diplomarbeit:
„Existenz schwacher Lösungen für instationäre, mikropolare, elektrorheologische Flüssigkeiten“

[Bild Erik Bäumle]

Elektrorheologische Flüssigkeiten verändern unter Einfluss eines elektrischen Feldes ihre Viskosität. Dieser sogenannte elektrorheologische Effekt hängt von der Stärke und Richtung des elektrischen Feldes ab. Um diese Abhängigkeit besser zu beschreiben, wird der Begriff der Mikropolarität zu Hilfe genommen. Die Partikel mikropolarer Flüssigkeiten haben, neben den drei Freiheitsgraden der Translation, drei zusätzliche Freiheitsgrade einer Drehung. Ein solches Fluid wird durch ein System von nichtlinearen partiellen Differentialgleichungen mit den Unbekannten Geschwindigkeit, Mikrorotation und Druck beschrieben. Aufgrund der geforderten Inkompressibilität genügt es in der schwachen Formulierung divergenzfreie Testfunktionen in der Geschwindgkeitsgleichung zu verwenden. Somit verschwindet der Gradient des Druckes und das System besitzt nur noch die Geschwindigkeit und Mikrorotation als Unbekannte.

Um nun die Existenz eines Lösungspaares der schwachen Formulierung zu zeigen, wird das System durch die Hinzunahme zweier Hilfsterme passend approximiert. Für dieses approximative System kann mit der bekannten Theorie pseudomonotoner Operatoren und instationären Kompaktheitsaussagen die Existenz von Lösungspaaren gezeigt werden. Die Schwierigkeit im Grenzübergang von Lösungen des approximativen Systems zu schwachen Lösungen des eigentlichen Systems besteht in der Identifizierung der Stresstensoren. Hierfür werden zwei Resultate über instationäre Lipschitz-Truncations benutzt, die geeignete Testfunktionen für die Differenz aus approximativen Gleichungen und Grenzwertgleichungen liefern.

[nach oben]

Katharina Hopf

Katharina Hopf erhält den Alumni-Preis 2015 für ihre Diplomarbeit:
„Untersuchungen zur Wohlgestelltheit von Wellengleichungen vierter Ordnung und quasilinearen Schrödingergleichungen“

[Bild Katharina Hopf]

Wellengleichungen vierter Ordnung treten auf natürliche Weise als Modellgleichungen physikalischer Probleme auf. So führt etwa die Anwendung des d'Alembertschen Prinzips auf eine elastische geschlossene Kurve im euklidischen Raum auf eine quasilineare Wellengleichung vierter Ordnung.

Eine fundamentale Eigenschaft solcher Gleichungen ist ein dem Energieerhaltungssatz für Lösungen klassischer Wellengleichungen (zweiter Ordnung) analoger Erhaltungssatz. Da anders als im Falle der klassischen hyperbolischen Wellengleichungen die Ausbreitungsgeschwindigkeit von Lösungen der hier betrachteten Gleichungen unendlich ist, treten Phänomene auf, die sich grundlegend von jenen für Wellengleichungen zweiter Ordnung unterscheiden. An dieser Stelle lohnt ein Blick auf die Schrödingergleichung - motiviert durch die Beobachtung, dass der Wellengleichungsoperator vierter Ordnung Produkt zweier Schrödingeroperatoren ist, und somit Wellengleichung vierter Ordnung und Schrödingergleichung ähnliche Dispersionseigenschaften haben.

In dieser Diplomarbeit werden Existenz-, Eindeutigkeits- und Regularitätsaussagen für lineare und nichtlineare Wellengleichungen vierter Ordnung in einer relativ allgemeinen Form auf dem Ganzraum entwickelt, wobei im Wesentlichen Energiemethoden und Sobolev-Einbettungen zum Einsatz kommen. Während für semilineare Gleichungen mit konstantem Leitkoeffizienten und ohne Störterm dritter Ordnung lokale Wohlgestelltheit ähnlich der von klassischen Wellengleichungen gezeigt werden kann, bedarf es für die Wohlgestelltheit quasilinearer Gleichungen einer speziellen Struktur. Darüberhinaus werden Techniken aus der harmonischen Analysis vorgestellt, mit denen sich Dispersionseffekte von Schrödingergleichungen erfolgreich ausnutzen lassen, und welche sich auch für Wellengleichungen vierter Ordnung als fruchtbar erweisen könnten.

[nach oben]

Daniel Small

Daniel Small erhält den Alumni-Preis 2015 für seine Master-Arbeit:
“Risikoschranken mit zusätzlicher Information“

[Bild Daniel Small]

Risikomanagementabteilungen im Finanzsektor haben die Aufgabe alle Risikoexpositionen ihres Unternehmens in einem Modell abzubilden. Solche Modelle unterliegen großen Modellunsicherheiten in der Abhängigkeitsstruktur zwischen den einzelnen Risiken - häufig lässt sich nur die Fréchetklasse (Menge der mehrdimensionalen Wahrscheinlichkeitsverteilungen, welche die gleichen festen Randverteilungen aufweisen) angeben, in der die gemeinsame Verteilung der Risiken liegt. Banken und Versicherungen sind entsprechend der Regularien Basel III bzw. Solvency II dazu verpflichtet Kapitalrücklagen vorzunehmen, um auftretende Verluste decken zu können. Dafür sind die Quantile der Verteilung der Summe der Risiken interessant, die nur bei bekannter gemeinsamer Wahrscheinlichkeitsverteilung der Risiken explizit berechnet werden können. Es muss folglich darauf ausgewichen werden, Suprema und Infima der Quantile über die Fréchetklasse der möglichen gemeinsamen Verteilungen zu bestimmen, sogenannte Risikoschranken. Das von unterer und oberer Risikoschranke aufgespannte Intervall I kann sehr breit sein, was die Risikoschranken in der Praxis untauglich macht. In meiner Master-Arbeit werden mit Hilfe von zusätzlichen Annahmen an die Abhängigkeitsstruktur der Risiken die betrachteten Fréchetklassen verkleinert und entsprechend Risikoschranken hergeleitet, die das Intervall I verkleinern.

[nach oben]

2014    N. Fischer, M. Rapp, L. M. Strehlau

Nadja Fischer

Nadja Fischer erhält den Alumni-Preis 2014 für ihre Diplomarbeit:
„Die infinitesimal-äquivariante Eta-Invariante“

[Bild Nadja Fischer]

Der Indexsatz von Atiyah und Singer ist eine bedeutende Errungenschaft der Mathematik des 20. Jahrhunderts. Es wird gezeigt, dass eine scheinbar analytische Größe, der Fredholm-Index eines Dirac-Operators, auch eine topologische Größe ist, nämlich der kohomologische Index des Dirac-Operators. Bei Erweiterung des Satzes auf Mannigfaltigkeiten mit Rand tritt als Randkorrekturterm eine Invariante auf, die Eta-Invariante. Lässt man zusätzlich eine Wirkung einer kompakten Liegruppe auf die Mannigfaltigkeit zu, lässt sich ein Indexsatz für den äquivarianten Index formulieren, bei welchem die G-äquivariante Eta-Invariante als Randkorrekturterm enthalten ist. Eine solche Formel für den äquivarianten Index erhält man andererseits auch durch Betrachtung von Familien von Mannigfaltigkeiten mit kompakter Strukturgruppe. In diesem Fall tritt als Randkorrekturterm eine weitere Invariante auf, die infinitesimal-äquivariante Eta-Invariante. Die Gleichung ist hier auf dem Niveau formaler Potenzreihen zu verstehen.

In dieser Arbeit konnte die Existenz und Wohldefiniertheit der infinitesimal-äquivarianten Eta-Invariante als Funktion in Werten der Liealgebra gezeigt werden. Das asymptotische Verhalten für große Zeiten kann mit Hilfe funktionalanalytischen und funktionentheoretischen Methoden aufgezeigt werden. Die Konvergenz für kleine Zeiten zu beweisen ist deutlich anspruchsvoller und erfordert unter anderem eine Lokalisierung, Trivialisierung und Getzler-Reskalierung sowie die Einführung einer speziellen Normfamilie. Der Beweis wird im Kontext einer Vergleichsformel zwischen der G-äquivarianten Eta-Invariante und der infinitesimal-äquivarianten Eta-Invariante geführt. Die Ergebnisse liefern einen großen Teil des Beweises dieser Vergleichsformel.

[nach oben]

Martin Rapp

Martin Rapp erhält den Alumni-Preis 2014 für seine Master-Arbeit:
„Existenz von Lösungen von Konvektions-Diffusionsproblemen in variablen Exponentenräumen“

[Bild Martin Rapp]

Die in der Master-Arbeit untersuchten Konvektions-Diffusionsgleichungen modellieren die Konzentration eines Stoffes in einem inkompressiblen Fluid mit gegebenem Geschwindigkeitsfeld. Bei der Verwendung sogenannter elektrorheologischer Materialien kann die Viskosität und somit das Verhalten des Fluids durch elektrische Felder verändert werden. Um dies zu modellieren, wird eine Verallgemeinerung des Laplaceoperators auf den p-Laplace mit ortsabhängigem p eingeführt. Um mit der Theorie der monotonen Operatoren schwache Lösungen der Gleichungen zu erhalten, werden zu dem verallgemeinerten Laplaceoperator passende Lebesgue- und Sobolevräume mit variablen Exponenten p(x) eingeführt. Viele Eigenschaften der klassischen Lebesgue- und Sobolevräume lassen sich auf diese Verallgemeinerung unter geeigneten Annahmen an p übertragen. Dennoch gibt es auch Eigenschaften, die nur für den klassischen Fall gelten. Um die Gleichungen zu lösen, wird zuerst eine Folge von approximierenden Gleichungen betrachtet, die mit Standardmethoden der klassischen Theorie monotoner Operatoren zu lösen sind. Unter geeigneten Voraussetzungen an die Integrierbarkeit des Geschweindigkeitsfelds des Fluids wird schließlich aus der Approximation mit der Methode der Lipschitz-Truncations auf die schwache Lösbarkeit der Konvektions-Diffusionsgleichungen in beschränkten Gebieten geschlossen.

[nach oben]

Lena Maria Strehlau

Lena Maria Strehlau erhält den Alumni-Preis 2014 für ihre Diplomarbeit:
„Erhaltungsgleichung auf Mannigfaltigkeiten mit Rand, Existenz und Eindeutigkeit einer Lösung“

[Bild Lena Maria Strehlau]

Systeme hyperbolischer Erhaltungsgleichungen werden beispielsweise bei der Wettervorhersage verwendet. Möchte man dabei nur Aussagen über einzelne Gebiete, etwa einzelne Kontinente oder für nur eine Erdhalbkugel, treffen und somit nicht den Rechenaufwand für die gesamte Erdoberfläche aufbringen, ist die Hinzunahme von Randbedingungen notwendig. Um Aussagen über Systeme solcher Gleichungen treffen zu können, müssen zunächst skalare Gleichungen untersucht werden.

Diese Arbeit beschäftigt sich mit der Existenz und Eindeutigkeit der Lösung eines skalaren hyperbolischen Anfangsrandwertproblems auf einer kompakten Riemannschen Mannigfaltigkeit mit Rand, bestehend aus

  • einer skalaren hyperbolischen Erhaltungsgleichung,
  • einer Anfangsbedingung und
  • einer Randbedingung, welche auf einem - a-priori nicht bekannten - Teil des
Randes Nullrandwerte, vorschreibt.

Anhand der Methode der Charakteristiken, welche auch in der Theorie über Anfangswertprobleme verwendet wird, zeigt sich, dass die Lösung an gewissen Stellen bereits durch die Anfangsdaten festgelegt ist. Dies ist insbesondere auch für Teile des Randes der Fall. An diesen Stellen können somit keine beliebigen Randwerte vorgeschrieben werden. In der Arbeit wird daher eine Randbedingung formuliert, welche nur an Teilen des Randes, an welchen die Lösung nicht bereits festgelegt ist, Nullrandwerte fordert. Der zentrale Schritt, um Wohlgestelltheit des - damit zulässig formulierten - Problems zu zeigen, ist der Beweis der Existenz einer Spur für Funktionen beschränkter Totalvariation auf Riemannschen Mannigfaltigkeiten mit Rand. Die Eigenschaften der Spur bezüglich Beschränktheit und Konvergenz ermöglichen schließlich eine Art partielle Integration für BV- Funktionen auf Mannigfaltigkeiten. Für den Existenzbeweis wird die „Vanishing Viscosity Method“ verwendet und indem Kruzkov’s Verdopplung der Variablen auf den vorliegenden Fall transferiert wird, kann Eindeutigkeit gezeigt werden.

[nach oben]

2013    A. Fuchshuber, C. Thoms

Anja Fuchshuber

Anja Fuchshuber erhält den Alumni-Preis 2013 für ihre Diplomarbeit:
„Formen für Familien mit integrabler horizontaler Distribution“

[Bild Anja Fuchshuber]

Eta-Invarianten spielen in der Indextheorie in verschiedenen Situationen eine große Rolle. Atiyah, Patodi und Singer konnten 1973 in einer Arbeit den Atiyah-Singer-Indexsatz für Mannigfaltigkeiten mit Rand verallgemeinern. In dieser Situation tritt die Eta-Invariante als Korrekturterm des Randes auf. Die andere Situation ist die von Familien von Mannigfaltigkeiten. Im Familienindexsatz gibt das äußere Differential der Eta-Form gerade die Differenz zwischen kohomologischem und analytischem Index.

In dieser Arbeit wurde ein Faserbündel von Mannigfaltigkeiten betrachtet, bei dem die Krümmung verschwindet, die horizontale Distribution also integrabel ist. Die Fragestellung der Arbeit ist, ob unter dieser zusätzlichen Voraussetzung die Eta-Form geschlossen ist. Es wurde gezeigt, dass es in diesem Falle einen Korrekturterm gibt, der lokal in Termen der Krümmung berechenbar ist, sodass die Differenz von Eta-Form und Korrekturterm in höheren Graden eine de-Rham-Kohomologieklasse auf der Basis definiert. Diese Kohomologieklasse hängt nicht von den gewählten Metriken ab und man erhält eine Invariante auf den Isomorphieklassen flacher Faserbündel von Spin-Mannigfaltigkeiten, bei denen der Spin-Dirac-Operator invertierbar ist.

Als Beispiel für ein Faserbündel mit integrabler horizontaler Distribution wurde ein Torusbündel betrachtet. Es wurde gezeigt, dass in diesem Falle die Eta-Form tatsächlich geschlossen ist und der Korrekturterm verschwindet.

[nach oben]

Cédric Thoms

Cédric Thoms erhält den Alumni-Preis 2013 für seine Diplomarbeit:
„Optimales Stoppen bei zufälliger Diskontierung“

[Bild Thoms]

Ihren Ursprung hat die Theorie des Optimalen Stoppens in den Überlegungen von Abraham Wald den für eine statistische Aussage benötigten Stichprobenumfang möglichst gering zu halten. So wird dieser bei einem sequentiellen Hypothesentest nicht im Voraus festgelegt, sondern fortlaufend anhand der bisherigen Beobachtungen entschieden, ob die Hypothese bereits akzeptiert beziehungsweise verworfen werden kann, oder ob weitere Beobachtungen angestellt werden müssen. Auf diese Weise lässt sich der benötigte mittlere Stichprobenumfang bedeutend verringern. Snell und später Dynkin entwickelten daraus eine von statistischen Aspekten gelöste Problemstellung: Man besitzt das Recht in der Zukunft einmalig einen vom Wert eines beobachtbaren Prozesses abgeleiteten Gewinn zu erhalten und sucht daher eine Strategie (d.h. eine Stoppzeit), die diesen zu erwartenden Gewinn maximiert. Diese Formulierung zielt insbesondere auf eine finanzmathematische Anwendung wie die Bestimmung des optimalen Ausübungszeitpunkts einer amerikanischen Option. Als zugrundeliegenden Prozess verwendet man typischerweise eine Diffusion. Zudem kann das Optimale Stoppproblem auch funktional abhängig vom Startwert des Prozesses formuliert werden.

Aus finanzmathematischer Sicht tritt noch folgender Effekt auf: Eine zukünftige Auszahlung wird geringer als eine sofortige Auszahlung in gleicher Höhe eingeschätzt. Daher betrachtet man statt dem beim Stoppen ausgezahlten Gewinn dessen Barwert; also den Betrag, der bei stetiger Diskontierung (zu einem festen Marktzinssatz) über die entsprechende Wartezeit angelegt den gleichen Wert erreicht. Man spricht in solch einem Fall von Optimalen Stoppen bei (konstanter) Diskontierung. Eine allgemeinere Methode einen zeitlichen Wertverlust zu beschreiben stellt die zufällige Diskontierung dar. Hier ist der Diskontierungsfaktor ein additives Funktional, d.h. selbst ein stochastischer Prozess, welcher an den zugrundeliegenden Prozess geknüpft ist. Dies ermöglicht beispielsweise etwaige Präferenzen hinsichtlich des Verlaufs des Prozesses in die Diskontierung einfließen zu lassen oder auch nicht-monetäre Problemstellungen zu betrachten. Insbesondere handelt es sich bei der konstanten Diskontierung um einen Spezialfall zufälliger Diskontierung.

Für Optimales Stoppen bei zufälliger Verzinsung stellten Beibel und Lerche in ihrem Paper „A note on Optimal Stopping of Regular Diffusions under Random Discounting“ einen neuen Lösungsansatz vor. Sie betrachten darin ein Optimales Stoppproblem, dem eine eindimensionale reguläre Diffusion mit festem Startwert zugrundeliegt. Ihnen gelang es, das Problem auf die Untersuchung explizit gegebener Funktionen auf fünf mögliche Verhaltensweisen zurückzuführen. Für den Spezialfall der konstanten Diskontierung entwickelten Christensen und Irle in ihrem Paper „A harmonic-function technique for the optimal stopping of diffusions“ den Beibel-Lerche-Ansatz weiter. Sie betrachteten darin eine vom Startwert funktional anhängig formulierte Problemstellung und führten diese auf das Bestimmen von Maximalstellen explizit gegebener Funktionen zurück. In meiner Arbeit verallgemeinere ich nun die Aussagen von Christensen und Irle auf Optimales Stoppen bei zufälliger Diskontierung. Hierzu nutze ich neben der Technik eine Diffusion zu „killen“ insbesondere die Martin-Rand-Theorie zur Integraldarstellung von exzessiven Funktionen.

[nach oben]

2012    H. Biehler, A. Maier, H. Eberlein

Holger Biehler

Holger Biehler erhält den Alumni-Preis 2012 für seine Diplomarbeit:
„Compact metric measure spaces and ∧-coalescents“

[Bild Holger Biehler]

In der Wahrscheinlichkeitstheorie bilden häufig metrische Strukturen die Grundlage weiterer Untersuchungen. Zum Beispiel erscheint in der Populationsgenetik, der statistischen Physik, etc. der Raum (maßerhaltender Isometrieklassen) metrischer Maßräume. Ausgestattet mit der sogenannten Gromov-schwachen Topologie bildet er mittels des Gromov-Prohorov Abstandes einen metrischen Raum. Aldous folgend konvergiert eine Folge metrischer Räume genau dann, wenn jeder zufällig gewählte endliche Teilraum konvergiert. In dieser Arbeit werden topologische Eigenschaften im Raum der kompakten metrischen Maßräume untersucht. Insbesondere wird eine Charakterisierung der relativen Kompaktheit bewiesen sowie hinreichende und notwendige Bedingungen an einen metrischen Maßraum gegeben, damit dieser (lokal) kompakt ist. Letzteres findet wiederrum Anwendung in der Untersuchung von zufälligen metrischen Maßräumen, welche im Kontext der Lambda-Koaleszenten auftreten. Lambda-Koaleszenten sind stochastische Prozesse, welche mit einer unendlichen Anzahl an Linien starten und sich durch mehrfache Verschmelzungen in einer austauschbaren Umgebung entwickeln. Es wird gezeigt, dass der daraus resultierende Lambda-Koaleszent Maßraum genau dann kompakt ist, wenn der Lambda-Koaleszent von unendlich herunterkommt, d.h. zu jeder positiven Zeit nur noch aus endlich vielen Linien besteht. Wenn der Lambda-Koaleszent unendlich bleibt, dann ist der Lambda-Koaleszent Maßraum aber nicht einmal mehr lokal kompakt.

[nach oben]

Annika Maier

Annika Maier erhält den Alumni-Preis 2012 für ihre Diplomarbeit:
„Vereinfachung und numerische Berechnung von Wiener-Hopf-Faktoren“

[Bild Annika Maier]

Die derzeit in der Praxis am häufigsten benutzten stochastischen Modelle zur Beschreibung von Wertpapierkursen oder Preisänderungen verwenden als treibenden Prozess eine Brownsche Bewegung. Dieser Ansatz weist jedoch große Mängel auf, da mit ihm insbesondere die Wahrscheinlichkeiten sehr großer Kursschwankungen extrem unterschätzt werden. Daher befasst man sich in der Finanzmathematik und speziell in der Arbeitsgruppe von Prof. Dr. Ernst Eberlein mit der Entwicklung neuer, realistischerer Modelle, bei denen anstelle der Brownschen Bewegung allgemeiner ein Lévy-Prozess als Treiber verwendet wird. Die hierdurch mögliche deutlich präzisere Erfassung des Marktgeschehens erfordert auf der anderen Seite jedoch auch einen gröÿeren analytischen und numerischen Aufwand zur Ableitung und Auswertung geschlossener Preisformeln für Derivate. Üblicherweise verwendet man hierzu Fourier-basierte Methoden, die jedoch die Kenntnis der charakteristischen Funktion des zugrundeliegenden Prozesses voraussetzen. Daher ist die Bewertung von exotischen Optionen in Lévy-Modellen im Gegensatz zu Europäischen Optionen ein weit komplexeres Problem, denn hierbei wird nicht nur der Aktienkurs zu einem festen Zeitpunkt benötigt, sondern das Supremum des Aktienkurses innerhalb eines vorgegebenen Zeitraums. Die charakteristische Funktion des Supremumsprozesses L ist jedoch im Allgemeinen nicht explizit bekannt, sondern kann lediglich mit Hilfe der sogenannten Wiener-Hopf-Faktoren durch ein Mehrfachintegral dargestellt werden. Für die Wiener-Hopf-Faktoren selbst existiert aber in der Regel nur eine Darstellung in Form eines Doppelintegrals. Da man die charakteristische Funktion von L erst durch Integration über die Wiener-Hopf-Faktoren erhält und über diese dann in der Optionspreisformel nochmals integriert wird, führte die Bewertung exotischer Optionen in Lévy-Modellen bislang auf ein Vierfachintegral, das sich numerisch nicht mehr in akzeptabler Zeit berechnen lässt. Unter geringfügigen zusätzlichen Annahmen an den LévyProzess kann das Doppelintegral zur Berechnung der Wiener-Hopf-Faktoren jedoch in ein einfaches Integral übergeführt werden. Symmetrieeigenschaften der Wiener-Hopf-Faktoren erlauben eine zusätzliche signifikante Reduktion der Berechnungszeiten. Auf diesem Wege läßt sich zum Beispiel die Bewertungsformel für einen Fixed Strike Lookback Call vereinfachen. Dadurch wird es möglich, den Preis eines solchen Calls und - nach Übertragung der Ergebnisse - auch anderer exotischer Optionen numerisch stabil und mit akzeptablem Zeitaufwand zu berechnen.

[nach oben]

Hannes Eberlein

Hannes Eberlein erhält den Alumni-Preis 2012 für seine Diplomarbeit:
„Existenz schwacher Lösungen für instationäre Herschel-Bulkley Fluide unter Verwendung der Lipschitz-Truncation Methode“

[Bild Hannes Eberlein]

Herschel-Bulkley Fluide haben die Eigenschaft, dass sie einer gewissen Schubspannung standhalten können, bevor sie anfangen zu fließen. Ist diese Schubspannung überwunden, verhalten sie sich wie ein nicht-newtonsches Fluid, das heißt gemäß einem nichtlinearen Materialgesetz. Solch ein Verhalten kennt man zum Beispiel von Ketchup, der erst durch das Schütteln der Flasche anfängt zu fließen. In dieser Arbeit wurde als Materialgesetz das eines p-Fluides angenommen, welches insbesondere die „power-law“- bzw. „Carreau“-Modelle einschließt. Beschrieben wird das Verhalten des Herschel-Bulkley Fluides mit den instationären Navier-Stokes-Gleichungen, wobei die Abhängigkeit von der Schubspannung über die Forderung einer speziellen Struktur des Spannungstensors realisiert wird. Um die Existenz einer schwachen Lösung zu zeigen, wurde im Rahmen dieser Arbeit eine Folge von scherratenabhängigen Fluiden konstruiert, die das Herschel-Bulkley Fluid passend approximieren. Für diese Folge liefern bereits bekannte Resultate die Existenz einer schwachen Lösung. Um von den approximativen Lösungen den Grenzübergang zu einer schwachen Lösung des eigentlichen Problems vollziehen zu können, spielt die fast-überall Konvergenz des (symmetrischen) Geschwindigkeitsgradienten eine entscheidende Rolle. Um diese zu erhalten, wurden Techniken wie die lokale Rekonstruktion des Druckes und die instationäre Lipschitz-Truncation eingesetzt.

[nach oben]

2011    S. Schwarzacher

Sebastian Schwarzacher

Sebastian Schwarzacher erhält den Alumni-Preis 2011 für seine Diplomarbeit:
„Higher Integrability of Elliptic Differential Equations with Variable Growth“

[Bild Sebastian Schwarzacher]

Die Poissongleichung ist eine elliptische Differentialgleichung, welche unter anderem die Auslenkung einer Membran beschreibt, die mit einer Kraft belastet ist. Die Lösung ist insbesondere ein Minimierer der Biegeenergie. Mit Hilfe der Variationsrechnung existiert für jedwede quadratisch integrierbare Kraft ein eindeutiger Minimierer. Manche Eigenschaften der Kraft lassen sich auf den Minimierer und dessen Ableitungen transferieren. Im Falle von Minimierern ist die Integrabilität eine wichtige Eigenschaft -- es gilt dabei zu zeigen, dass sich höhere Integrierbarkeit der Kraft auf die Lösung und deren Gradienten vererbt. Fur die Poissongleichung ist diese Frage durch die Darstellungsformel beantwortet: Ein singulären Integraloperator bildet explizit die Kraft auf deren Minimierer ab. Diese Theorie ist gut verstanden, so dass die Integrabilitätszusammenhänge genau bekannt sind. Nichtlineare Minimierungsproblemen entstehen, indem man nicht quadratische Energien betrachtet. Tadeuz Iwaniec gelang es als Erstem höhere Integrabilität fur Minimierer der sogenanten p-Energie zu zeigen, welche die einfachsten nichtlinearen Energien sind. In dieser Diplomarbeit geht es um p-Energien, bei welchen p eine vom Ort abhängige Funktion ist. Minimierer solcher Energien finden wichtige Anwendung. Diese reichen von der Bildverarbeitung bis zu der Modellierung elektrorheologischer Fluide. Die Italiener Acerbi und Mingione bewiesen lokal höhere Integrabilität, indem sie die Theorie von Iwaniec mit Techniken, welche der Schaudertheorie verwandt sind, lokalisierten. Es gelang durch eine genauere Analysis der variablen Lebesgueräume dieses Resultat zu verbessern, so dass auch höhere Integrabilität auf unbeschränkten Gebieten gezeigt werden konnte.

2010    T. Müller, D. Stotz, Fachschaft

Thomas Müller

Thomas Müller erhält den Alumni-Preis 2010 für seine Diplomarbeit:
„Erhaltungsgleichungen auf Mannigfaltigkeiten: Wohlgestelltheit, Totalvariationsabschätzungen und Numerik“

[Bild Thomas Müller]

Die Simulation von atmosphärischen Strömungen auf der Erdoberfläche, biologischen Transportvorgängen auf Zellmembranen oder auch vom Fluss durch poröse Medien mit Rissen - um nur einige Anwendungen zu nennen - erfordern die Lösung von Erhaltungsgleichungen auf Riemannschen Mannigfaltigkeiten. Denn mathematisch betrachtet sind all diese Phänomene durch ein hyperbolisches System von Erhaltungsgleichungen auf einer gekrümmten Oberfläche zu beschreiben. Aus den entsprechenden Gleichungen im Euklidischen ist bekannt, dass sich deren allgemeine theoretische Behandlung als äußerst schwierig erweist. Beschränkt man sich jedoch, anstatt Systeme zu betrachten, auf skalare Erhaltungsgleichungen, dann sind Existenz- und Eindeutigkeitsaussagen für den euklidischen Fall vorhanden. Auch physikalische Phänomene wie zum Beispiel Schocks und Verdünnungswellen treten schon im Falle von skalaren Gleichungen auf. Gegenstand dieser Arbeit ist deshalb die gründliche Untersuchung von skalaren Erhaltungsgleichungen auf gekrümmten Oberflächen, oder allgemeiner, auf Riemannschen Mannigfaltigkeiten, als Modellproblem für entsprechende Systeme von Erhaltungsgleichungen. Dabei wird der Lösungsbegriff der Entropielösung auf Mannigfaltigkeiten übertragen. Ein zentrales Resultat dieser Diplomarbeit ist eine Abschätzung der Totalvariation der Entropielösung für den Fall von zweidimensionalen Mannigfaltigkeiten. Der Beweis basiert auf der Konstsruktion von Viskositätslösungen und der gleichnäßigen Abschätzung der Totalvariation dieser Lösungen. Mit einem Kompaktheitssatz folgt dann sowohl die Konvergenz der Viskositätslösungen gegen eine Entropielösung als auch die schon erwähnte Totalvariationsabschätzung. Anhand eines Beispiels wird illustriert, dass bessere Abschätzungen nicht zu erwarten sind. Um Näherungslösungen zu bestimmen werden sowohl ein Finite Volumen Verfahren mit der zugehörigen Triangulierung einer Mannigfaltigkeit definiert als auch ein bestehender Konvergenzbeweis dieses Verfahrens vorgestellt. Es werden Testprobleme formuliert, anhand derer numerische Experimente gemacht werden. Dabei wird experimentell die Konvergenz des Verfahrens und die zeitliche Entwicklung der Totalvariation untersucht.

[nach oben]

David Stotz

David Stotz erhält den Alumni-Preis 2010 für seine Diplomarbeit:
„Homogeneous Coordinates on Toric Varieties via Methods from Geometric Invariant Theory“

[Bild David Stotz]

Die Idee, homogene Koordinaten auf torischen Varietäten zu konstruieren, entspringt dem Modellbeispiel des projektiven Raums oder auch der klassisch gut verstandenen Hirzebruch Fläche. Hierfür ist es notwendig den Quotienten nach einer Gruppenwirkung aus einem afiinen Raum zu bilden. Die allgemeine Theorie der Quotientenbildung von algebraischen Varietäten wird in der Geometrischen Invariantentheorie behandelt. Diese stellt nützliche Resultate bereit, wie zum Beispiel das Hilbert-Mumford Kriterium, welches einem erlaubt die stabilen Punkte einer gegebenen algebraischen Gruppenwirkung zu finden. Das Ziel der Arbeit war es, die Natürlichkeit der allgemeinen Quotientenkonstruktion von torischen Varietäten darzustellen und dabei einen modifizierten Beweis für den Satz zu geben, welcher erklärt wann man diesen Quotienten als Bahnenraum erhält. Maßgebend für ersteres ist dabei die Betrachtung des Cox-Rings, der im Falle von torischen Varietäten die besonders einfache Struktur hat, nämlich ein Polynomring ist und somit also einen affinen Raum beschreibt. Der modifizierte Beweis beruht auf dem Hilbert-Mumford Kriterium aus der Invariantentheorie, das einem erlaubt die notwendige Berechnung auf der Basis der konvexen Kegel durchzuführen, deren Geometrie eine torische Varietät definiert.

[nach oben]

Fachschaft

2010 erhielten zudem die Fachschaften Mathematik und Physik (vertreten durch Lena Baron, Maja von Cube, Adrian Driewer, Judith Erhard, Magnus Kollmann, Jonathan Nowak, Manfred Ohrband, Julian Schmidt, Paul Staab) den Alumni-Preis für ihr außergewöhnliches Engagement in der Lehrevaluation, der Gremienarbeit, in Tutorien und insbesondere bei der Betreuung von Studierenden in den ersten Semestern.

[nach oben]