Ferdinand-von-Lindemann Prizes

[Büste von Ferdinand von Lindemann]

Sorry, there is no English translation for this page.

Zur Förderung des wissenschaftlichen Nachwuchses verleiht die Fakultät für Mathematik und Physik in der Regel jährlich den Ferdinand-von-Lindemann-Preis für herausragende Dissertationen im Fach Mathematik. Der Preis wird bei der Eröffnungsfeier des Akademischen Jahres überreicht.

Wir danken herzlich unseren Stiftern:

  • der BBBank eG, die den Preis seit 2022 stiftet,
  • der Dr.-Gerhard-Fritz-Stiftung, die den Preis von 2005 bis 2020 finanziert hat,
  • Dr. Gerhard Fritz sowie dem Verband der Freunde der Universität Freiburg, der den von Dr. Fritz gestifteten Preis von 1989 bis 2004 verwaltet hat.

Benannt ist der Preis nach Ferdinand von Lindemann, 1877– 1883 Professor für Mathematik an der Albert-Ludwigs-Universität Freiburg, der in Freiburg die Transzendenz von π und mithin die Unmöglichkeit der Quadratur des Kreises mit Zirkel und Lineal bewies. (Weitere Informationen auf der Seite zur Geschichte des Mathematischen Instituts.)

Der Ferdinand-von-Lindemann-Preis wurde 1989 erstmalig ausgeschrieben und bis 2011 für herausragende Dissertationen, Diplomarbeiten oder Staatsexamensarbeiten im Fach Mathematik vergeben.
Auch der Pfizer-Forschungspreis (ehemals Goedecke-Preis) hat bis 2008 etwa alle zwei Jahre exzellente Dissertationen und Diplomarbeiten in Mathematik geehrt.

2024    Jan-Henrik Metsch, Luca Terenzi

Jan-Henrik Metsch

Dr. Jan-Henrik Metsch erhält den Ferdinand-von-Lindemann-Preis 2024 für seine Dissertation:
„Willmore Functional and Flow: Singular Problems for Surfaces Enclosing Small Volumes“

[Bild Jan-Henrik Metsch]

Die Dissertation behandelt singuläre Konstruktionen beim Willmore-Funktional, einem Krümmungsfunktional zweiter Ordnung, das die elastische Spannungsenergie zweidimensionaler Membranen modelliert. Die untersuchten Projekte haben gemeinsam, dass Willmore-artige Flächen unter verschiedenen Rand- und Nebenbedingungen im Grenzfall untersucht werden, wenn das von ihnen eingeschlossene Volumen gegen null konvergiert.

Inspiriert von Seifenblasen, die auf einem unebenen Untergrund gleiten, wird im ersten Projekt der flächenerhaltende Willmore-Fluss approximativer Halbsphären mit kleinem Radius untersucht. Es wird gezeigt, dass der Fluss für alle Zeiten existiert und eine halbsphärenartige Form behält. Im Grenzfall, in dem der Radius gegen null konvergiert, wird gezeigt, dass die Zentren der Sphären einer einfachen Differentialgleichung genügen. Dies ermöglicht weitere Analysen über das Langzeitverhalten des Flusses – etwa bezüglich seiner Konvergenz – die in dieser Form bisher unbekannt waren. Im zweiten Projekt werden die zu Projekt 1 gehörenden stationären Lösungen untersucht. Dabei wird analysiert, ob diese Lösungen im Grenzfall, in dem ihr eingeschlossenes Volumen gegen null konvergiert, den umgebenden Raum blättern. Das Ergebnis der Arbeit ist ein Kriterium, welches dies entweder garantiert oder ausschließt. Diese Analyse stellt die erste ihrer Art für Halbsphären dar, und das Phänomen der bedingten Blätterung ist neu. Das dritte Projekt untersucht die Existenz glatter Minimierer der Willmore-Energie in der Klasse axialsymmetrischer Flächen vom sphärischen Typ mit vorgegebenem isoperimetrischem Verhältnis. Diese Analyse ist motiviert durch ein vereinfachtes Modell für Zellmembranen. Im Grenzfall, wenn das eingeschlossene Volumen gegen null konvergiert, wird die Struktur der Minimierer asymptotisch analysiert. Die Ergebnisse sind für axialsymmetrische Minimierer neu und bestätigen Phänomene, die bereits numerisch beobachtet wurden.

[nach oben]

Luca Terenzi

Dr. Luca Terenzi erhält den Ferdinand-von-Lindemann-Preis 2024 für seine Dissertation:
„On the Six Functor Formalism for Nori motivic sheaves“

[Bild Luca Terenzi]

Diese Dissertation befasst sich mit der Theorie der Nori-Motive, einer gewissen universellen Kohomologietheorie für algebraische Varietäten über einem Körper der Charakteristik Null. Unser Hauptbeitrag ist die Konstruktion einer kanonischen geschlossenen monoidalen Struktur auf Nori motivischen Garben auf allgemeinen Varietäten. Dies vervollständigt die Konstruktion des zugehörigen Sechs-Funktor-Formalismus.

Abstract: Nori motivische Garben auf algebraischen Varietäten bilden abelsche Kategorien, die durch eine geeignete universelle Eigenschaft definiert sind. Im Allgemeinen ist es unmöglich, Morphismen und Erweiterungen innerhalb dieser Kategorien zu berechnen. Um den Sechs-Funktor-Formalismus zu erhalten, besteht die einzige bekannte Methode darin, die universelle Eigenschaft selbst zur Definition von Funktoren und natürlichen Transformationen auszunutzen. Um die monoidale Struktur zu konstruieren, kann man diese Methode nicht direkt anwenden, da weder die Tensorprodukt-Funktoren noch die Monoidalitäts-Isomorphismen mit der universellen Eigenschaft kompatibel sind. Um dieses Problem zu lösen, besteht der erste Schritt darin, die abstrakte Theorie monoidaler Faserkategorien in Termen des sogenannten externen Tensorprodukts zu übersetzen und die Konstruktion der Monoinidatitäts-Isomorphismen auf spezielle Klassen von Morphismen von Varietäten zu reduzieren. Der zweite Schritt besteht darin, eine alternative Darstellung der motivischen Garben zu finden, die an das externe Tensorprodukt angepasst ist; dies basiert auf einer Verallgemeinerung einiger geometrischer Ergebnisse von Nori. Schließlich kann die Existenz interner Homomorphismen durch Induktion über die Dimension nachgewiesen werden. Als Konsequenz erhalten wir eine wohldefinierte Theorie motivischer lokaler Systeme über glatten Varietäten. Darüber hinaus zeigen wir, dass Nori motivische Garben auf präzise Weise als Garben mit Werten in Nori-Motiven interpretiert werden können.

[nach oben]

2023    Steve Wolff-Vorbeck

Steve Wolff-Vorbeck

Dr. Steve Wolff-Vorbeck erhält den Ferdinand-von-Lindemann-Preis 2023 für seine Dissertation:
„Optimization and Uncertainty Quantification for Geometric Structures“

[Bild Steve Wolff-Vorbeck]

Die Dissertation befasst sich mit der Modellierung von geometrischen Formen und Strukturen im Zusammenhang mit drei verschiedenen Anwendungen. In den ersten beiden Teilen werden Optimierungsprobleme betrachtet, die auf der Theorie der sogenannten Caccioppoli-Mengen basieren, d.h. auf Mengen mit endlichem Umfang oder Perimeter. Der letzte Teil der Arbeit ist hingegen mit der effizienten Unschärfemodellierung für stabförmige Strukturen befasst.

Dabei handelt der erste Teil der Arbeit von dem zweidimensionalen Tröpfchenmodell von Gamow. Genauer gesagt, betrachten wir ein isoperimetrisches Problem, bei dem ein zusätzlicher, abstoßender Term berücksichtigt werden muss, der eine Coulomb-Wechselwirkung großer Reichweite einer geladenen Masse darstellt.

Im zweiten Teil der Arbeit wird das mechanische Modell von nicht dehnbaren elastischen Stäben betrachtet, welche Biege- und Torsionskräften ausgesetzt sind. Der Schwerpunkt des zweiten Teils der Arbeit liegt dabei auf der Entwicklung von umfangsbestrafenden Formoptimierungsproblemen, welche die Biege- und Torsionssteifigkeit als Zielgrößen beinhalten und zwei verschiedene Optimierungsprobleme behandeln: das Problem der Suche nach einer optimalen Verteilung von zwei Materialien innerhalb des Querschnitts und die Optimierung der Querschnittsform selbst in Bezug auf verschiedene Optimierungsbedingungen, d.h. die Maximierung oder Minimierung der Torsions- oder Biegesteifigkeit.

Im letzten Teil der Arbeit leiten wir umfassende Modelle zur effizienten Bestimmung von Unsicherheiten bezüglich verschiedener mechanischer Eigenschaften stabförmiger, additiv gefertigter, elastischer Festkörper her. Wir entwickeln hierbei einen umfassenden Modellierungsansatz, der die effektiven mechanischen Eigenschaften eines zufällig gestörten, elastischen Stabes unter Berücksichtigung von aleatorischen und epistemischen Unsicherheiten in der Darstellung der zufälligen Störungen berücksichtigt.

[nach oben]

2022    Alex Kaltenbach, Luca Courte

Alex Kaltenbach

Dr. Alex Kaltenbach erhält den Ferdinand-von-Lindemann-Preis 2022 für seine Dissertation:
„Theory of pseudo-monotone operators for unsteady problems in variable exponent spaces“

[Bild Alex Kaltenbach]

Die berühmte klassische Theorie pseudo-monotoner Operatoren, zu deren Pionieren u.a. G.J. Minty, F.E. Browder und H. Brézis zählen, gilt seit Jahrzehnten als das “WD-40 Spray” der nichtlinearen Funktionalanalysis. Eine ihrer berühmtesten Anwendungen ist die schwache Lösbarkeit der instationären p-Navier-Stokes-Gleichungen. Diese beschreiben die instationäre Bewegung eines inkompressiblen, nicht-newtonschen Fluids mit konstanter Dichte, wobei p eine Konstante ist, oft als der sogenannte Power-Law-Index bezeichnet, in der mechanische Eigenschaften des Fluids verschlüsselt sind.

In Laborversuchen wurde jedoch entdeckt, dass in einer Reihe von nicht-newtonschen Strömungsproblemen der Power-Law-Index p keine feste Konstante sein kann, sondern vielmehr variabel ist. Konkret handelte es sich bei diesen nicht-newtonschen Strömungsproblemen um sogenannte elektrorheologische Fluide. Diese Fluide zeichnen sich durch ihre Fähigkeit aus, deutliche Änderungen in ihren mechanischen Eigenschaften zu erfahren, wenn sie einem elektro-magnetischen Feld ausgesetzt werden.

Aufgrund der variablen Abhängigkeit des Power-Law-Indexes p(·,·) in elektrorheologischen Fluiden ist das klassische Modell der instationären p-Navier-Stokes-Gleichungen nicht mehr anwendbar. Dies motivierte K.R. Rajagopal und M. Růžička zur Entwicklung eines mathematischen Modells, welches die Physik elektrorheologischer Fluide beschreibt, den sogenannten instationären p(·,·)-Navier-Stokes-Gleichungen, wobei p(·,·) nun keine feste Konstante, sondern eine Funktion ist. Bisher war es jedoch nicht möglich, die schwache Lösbarkeit mit Hilfe der Theorie pseudo-monotoner Operatoren zu beweisen. Dies liegt vor allem am Fehlen eines geeigneten mathematischen Rahmens, der es erlaubt, die Theorie pseudo-monotoner Operatoren zu erweitern. Die Erarbeitung dieses – noch fehlenden – Rahmens sowie der entsprechenden Erweiterungen der Theorie pseudo-monotoner Operatoren war die zentrale Aufgabe dieser Arbeit. Als mathematischer Rahmen wurden sogenannte variable Bochner-Lebesgue-Räume eingeführt, auf deren Basis die Theorie pseudo-monotoner Operatoren anschließend um die Begriffe Bochner-Pseudomonotonie und Bochner-Koerzivität erweitert wurde, sodass schließlich die schwache Lösbarkeit der instationären p(·,·)-Navier-Stokes-Gleichungen bewiesen werden konnte.

[nach oben]

Luca Courte

Dr. Luca Courte erhält den Ferdinand-von-Lindemann-Preis 2022 für seine Dissertation:
„Scaling laws and emergent effects for plasticity in heterogeneous materials“

[Bild Luca Courte]

In dieser Arbeit betrachten wir Modelle, welche die Propagation von Versetzungen ("dislocations") in heterogenen Medien beschreiben. Unter anderem, leiten wir ein vollkommen nicht-lineares Modell her und zeigen, dass dieses sogenannter Taylor-Skalierung genügt, d. h., die kritische Kraft die notwendig ist, um die Versetzung vollständig durch das Medium zu propagieren, skaliert wie die Wurzel der Konzentrierung der Hindernisse.

Abstract: Mit der Theorie der Viskositätslösungen wurde bereits einiger Fortschritt in der Frage nach der notwendigen Kraft, um Versetzungen durch ein Medium mit zufälligen Hindernissen zu ziehen gemacht. Eine große Einschränkung ist, dass diese Theorie nicht angewendet werden kann, um partielle Differenzialinklusionen zu behandeln, wie sie beim Betrachten von ratenunabhängiger Dissipation auftauchen. Der Evolution von Versetzungslinien unterliegt einer solchen ratenunabhängige Dissipation, was es nötig macht, dass wir die Theorie der Viskositätslösungen dahingehend erweitern. Diese Erweiterung erlaubt es uns, weitere interessante physikalische Phänomene mit dem Vergleichsprinzip zu untersuchen. Das Vergleichsprinzip ist der Baustein der Theorie der Viskositätslösungen und wir benutzen es, um nach der expliziten Konstruktion von Unter- und Oberlösungen Rückschlüsse auf die eigentliche Lösung zu ziehen. Natürlich offenbart sich die Frage, ob diese neue Viskositätslösung mit den bisher bekannten schwachen Lösungen solcher Probleme übereinstimmt. Wir beweisen, dass dies unter Voraussetzung von genügt Regularität gilt. Letztendlich wenden wir die entwickelten Methoden an, um ein Resultat von G.I. Taylor über die Propagation von Versetzungen rigoros zu beweisen.

[nach oben]

2020    Sandrine Gümbel, Thomas Körber

Sandrine Gümbel

Dr. Sandrine Gümbel erhält den Ferdinand-von-Lindemann-Preis 2020 für ihre Dissertation:
„Dynamic term structure modeling beyond the paradigm of absolute continuity“

[Bild Sandrine Gümbel]

Zinssätze von verschiedenen Anlageformen hängen unter anderem von Faktoren wie der Laufzeit oder dem zugehörigen Risiko der Anlage ab. Die Zinsstruktur betrachtet die Abhängigkeit des Zinssatzes von der Bindungsdauer einer Anlage und ist somit eine Funktion von der Laufzeit der Anlage auf dem Finanzmarkt. In meiner Arbeit betrachte ich die Modellierung von Zinsstrukturkurven in Zinsmärkten und in Märkten mit Kreditrisiko.

Wirft man einen Blick in die Daten erkennt man zwei wichtige Merkmale von Zinsmärkten. Zum einen ist spätestens seit der Finanzkrise das Kreditrisiko im Interbankenhandel nicht vernachlässigbar und zum anderen erkennt man regelmäßig auftauchende Sprünge in den zugrundeliegenden Zinssätzen. Zur Modellierung der ersten Eigenschaft ist bereits viel Forschungsaufwand betrieben worden und dies wird durch multiple Zinstrukturkurven modelliert.

Die Modellierung der zweiten Eigenschaft ist weniger erforscht. Wir stellen uns dieser Herausforderung und unterteilen die Sprünge in: Sprünge die auf dem Finanzmarkt als Überraschung auftreten, Sprünge die an vorher bekannten Zeitpunkten mit bekanntem Ausgang auftreten und Sprünge die an vorher bekannten Zeitpunkten auftreten bei denen man allerdings nicht weiss wie hoch sie springen. Letztere Sprünge, sogenannte stochastische Diskontinuitäten, treten zum Beispiel in Zusammenhang mit den Treffen der Europäischen Zentralbank zur Geldpolitik auf. Die Folge der oben beschriebenen Eigenschaften ist, dass klassische no-arbitrage Bedingungen nicht mehr gelten. Diese Bedingungen sollen sicher stellen, dass risikoloser Gewinn beim Handeln nicht möglich ist. Wir modellieren dafür ein erweitertes Heath-Jarrow-Morton Modell mit Semimartingalen als treibende Prozesse und leiten somit in einem sehr allgemeinem mehrkurvigem Zinsstrukturmodell Bedingungen zur Gewährleistung der Arbitragefreiheit her.

[nach oben]

Thomas Körber

Dr. Thomas Körber erhält den Ferdinand-von-Lindemann-Preis 2020 für seine Dissertation:
„Three problems in geometric analysis related to the study of quasi-local mass“

[Bild Thomas Körber]

Quasilokale Massen spielen in der Allgemeinen Relativitätstheorie eine wichtige Rolle und ihre Eigenschaften stehen im engen Bezug zur großflächigen Struktur und lokalen Geometrie des umgebenden Raumes. In dieser Arbeit betrachten wir drei verwandte geometrische Probleme und untersuchen dabei, wie sich die Existenz eines umgebenden Randes und dessen Geometrie auf das Verhalten einer quasilokalen Masse auswirkt.

In den letzten 40 Jahren konnten die Methoden der geometrischen Analysis mehrfach erfolgreich eingesetzt werden, um Fragestellungen in der mathematischen Allgemeinen Relativitätstheorie zu beantworten. Allerdings bleiben weiterhin viele grundlegende Probleme ungelöst, insbesondere bezüglich umgebender Räume mit Rand. Dies lässt sich zum Teil darauf zurückführen, dass gewisse Techniken aus den partiellen Differentialgleichungen nur bedingt auf berandete Räume übertragbar sind.

In der Arbeit wurden zunächst zwei fundamentale Ergebnisse reproduzieren, welche für Räume ohne umgebenden Rand bereits bekannt waren: die Riemannsche Penrose-Ungleichung sowie die Wohldefiniertheit der sogenannten Brown-York Masse für spezielle Flächen mit Rand. Um die Penrose-Ungleichung zu beweisen, entwickeln wir ein neues Approximationsverfahren für den sogenannten inversen mittleren Krümmungsfluss mit freiem Rand und können dabei zeigen, dass sich eine gewisse quasilokale Masse monoton entlang dieses Flusses entwickelt. Um die Brown-York Masse für Flächen mit Rand zu definieren, zeigen wir dagegen, dass diese Flächen auf eine spezielle Art und Weise in den euklidischen Raum eingebettet werden können. Schließlich untersuchen wir die sogenannte Hawkingmasse in unberandeten Räumen und können unter gewissen Annahmen die Flächen, welche eine maximale Menge an Masse umschließen, charakterisieren. Hierzu beweisen wir ein geometrisches Stabilitätsresultat für den sogenannten flächeninhaltserhaltenden Willmorefluss.

[nach oben]

2018    Patrick Schön

Patrick Schön

Dr. Patrick Schön erhält den Ferdinand-von-Lindemann-Preis 2018 für seine Dissertation:
„Scalable Adaptive Bisection Algorithms on Decomposed Simplicial Partitions for Efficient Discretizations of Nonlinear Partial Differential Equations“

In der Arbeit stellen wir Bisektionsverfahren für konforme Partitionen von Simplizes vor. Dabei können wir im dreidimensionalen Fall für Konvergenzanalysen wichtige Lokalitätsresultate erstmals für beliebige Ausgangspartition nachweisen. Die vorgestellte Methode der lokalen Vergröberung hat insbesondere auch großen Einfluss auf die Effizienz und Skalierbarkeit einer Realisierung des Algorithmus für parallele Rechnerarchitekturen.

Seit den 80er Jahren hat sich die Methode der adaptiven Gitterverfeinerung zu einem beliebten Werkzeug für effiziente Finite-Elemente-Anwendungen entwickelt. Gerade bei nichtlinearen Gleichungen treten oft sehr lokale Störungen auf, die einen großen Anteil am gesamten Diskretisierungsfehler aufweisen. Im Vergleich zu uniformen Methoden erlauben adaptive Methoden optimale Konvergenzraten unter schwächeren Regularitäts-Annahmen an Lösungen. In der Arbeit wird untersucht in welchem Maß klassische Bisektions-Algorithmen für konforme Simplex-Gitter den Annahmen von modernen Konvergenz- und Optimalitätsresultaten für Adaptive Finite-Elemente-Verfahren genügen. Dabei stellen wir einen Algorithmus vor, der diese Anforderungen für beliebige Partitionen von Tetraedern erfüllt. Erstmals können wir hier für den dreidimensionalen Fall Lokalität und beschränkte Komplexität von konformer Bisektion, ohne Einschränkungen an die Struktur der Ausgangstriangulierung, nachweisen. Die dabei verwendete Methode der lokalen Vergröberung hat insbesondere auch großen Einfluss auf die Effizienz und Skalierbarkeit einer parallelen Implementierung dieses Algorithmus. Des Weiteren untersuchen und entwickeln wir adaptive Methoden für interessante Anwendungen aus der mathematischen Modellierung und Optimierung. Im Falle des Optimalen Transport Problems führt die Nicht-Differenzierbarkeit des Kostenfunktionals bei uniformen Methoden zu limitierten Konvergenzeigenschaften. Die vorgestellte adaptive Methode hingegen zeigt in Experimenten formal optimales Konvergenzverhalten.

2017    Tim Patschkowski

Tim Patschkowski

Dr. Tim Patschkowski erhält den Ferdinand-von-Lindemann-Preis 2017 für seine Dissertation:
„New Approaches to Locally Adaptive Nonparametric Estimation and Inference“

In dieser Arbeit werden lokale Aspekte nichtparametrischer adaptiver Schätzung und Inferenz untersucht. Insbesondere wird eine Theorie lokaler Konvergenzraten in Bereichen kleiner Dichte sowie lokal adaptiver Konfidenzbänder entwickelt. Der Schwerpunkt der vorliegenden Dissertation liegt auf lokalen Aspekten nichtparametrischer adaptiver Schätzung und Inferenz.

So wird beispielsweise gezeigt, dass sich die lokale Konvergenzrate der Dichteschätzung in Regionen kleiner Dichte verbessern lässt. Das vorgestellte adaptive Verfahren setzt dabei weder Kenntnisse über die Lokation dieser Regionen noch exakte Kenntnisse über die Glattheit der Dichte voraus. Weiterhin werden die Optimalität dieser Raten sowie fundamentale Grenzen adaptiver Schätzung untersucht. Die Resultate finden zudem Anwendung in der Schätzung bestimmter Funktionale der Dichte. Für das konkrete Problem der Trägerschätzung werden minimax-optimale Konvergenzraten bewiesen, die sich als schneller herausstellen als entsprechende Raten bei der Schätzung von Superniveaumengen zu positivem Niveau.

In dieser Arbeit werden zudem erstmalig lokal adaptive Konfidenzbänder untersucht und konstruiert. Konfidenzbänder erlauben gleichzeitige Konfidenzaussagen über den Wert einer Funktion für ein Kontinuum von Punkten. Die Präzision wird dabei typischerweise durch die Glattheit der Dichte bestimmt. Diese ist in Anwendungen oft unbekannt, sodass adaptive Verfahren benötigt werden. Die hier entwickelte Theorie lokal adaptiver Inferenz ermöglicht die Konstruktion von Konfidenzbändern, deren Breite sich nicht nur adaptiv der globalen Glattheit anpasst, sondern entsprechend der lokalen Glattheit variiert. Damit werden substantiell verbesserte Konfidenzaussagen im Fall unbekannter inhomogener Glattheit erzielt.

2016    Rebecca Ramb

Rebecca Ramb

Dr. Rebecca Ramb erhält den Ferdinand-von-Lindemann-Preis 2016 für ihre Dissertation:
„k-t-sub-Nyquist sampled Parallel Echo Planar Imaging in MRI“

[Bild Rebecca Ramb]

In der Magnetresonanztomographie wird die räumliche Verteilung der Gewebearten nur indirekt gemessen und mit Kenntnis des Kodiervorgangs als Lösung eines inversen Problems rekonstruiert. Die Ortskodierung in der Datenaufnahme ist allerdings zeitaufwendig. Insbesondere bei dynamischen Messungen, für die schnelle Messwiederholungen zur korrekten Erfassung der Dynamik benötigt werden, limitiert dies die räumliche Auflösung.

Die vorgestellte Doktorarbeit umfasst die Entwicklung einer unterabgetasteten Aufnahmestrategie, basierend auf der Echo-Planaren-Bildgebung und einer Rekonstruktion mittels zeitaufgelöster parallelen Bildgebung zur Akquisition höherer räumlicher Auflösung in zerebralen Perfusionsmessungen.

Das räumlich korrelierte Bildrauschen wird in der parallelen Bildgebung durch den Geometrie (g)-Faktor quantifiziert. Als Teil dieser Arbeit wurde eine g-Faktor Analyse für die zeitaufgelöste parallele Bildgebung hergeleitet, die zusätzlich auch die zeitliche Fidelität charakterisiert. Mittels dieser können Zusammenhänge und Unterschiede zwischen verschiedenen Methodenansätzen analysiert werden.

Bei Tumorpatienten wurde in Doppel-Messungen die entwickelte Aufnahmestrategie mit der bestehenden klinischen Routinemessung verglichen. Mit der neuen Methode kann eine deutlich höhere räumliche Auflösung erreicht werden, während gleichzeitig Verzerrungs- und Auslöschungsartefakte reduziert werden. Durch die höhere räumliche Auflösung kann die veränderte Durchblutung in den Bereichen des Tumors genauer lokalisiert werden.

2015    Thomas Müller

Thomas Müller

Dr. Thomas Müller erhält den Ferdinand-von-Lindemann-Preis 2015 für seine Dissertation:
„Scalar conservation laws on time-dependent Riemannian manifolds – analysis, numerical analysis and numerical simulations“

[Bild Thomas Müller]

Zahlreiche Strömungsvorgänge in Natur und Technik sind durch mathematische Gleichungen (partielle Differentialgleichungen) beschreibbar, so zum Beispiel die Luftströmung an Tragflächen oder das Wetter. Aufgrund von Nichtlinearitäten lassen sich Lösungen oft nicht exakt angeben, sondern lediglich näherungsweise, basierend auf speziell entwickelten Algorithmen.

Das passende Rechengebiet für solche Gleichungen ist klassischerweise ein „flacher" Raum, für manche Anwendungen jedoch ist es eine gekrümmte Oberfläche, womöglich beweglich im zeitlichen Verlauf. Beispiele sind die Ausbreitung von Tsunamis auf der Erdoberfläche, oberflächenaktive Substanzen auf Grenzschichten oder Transportvorgänge auf Zelloberflächen.

Der Schwerpunkt meiner Dissertation liegt auf dem Spezialfall nichtlinearer skalarer hyperbolischer Erhaltungsgleichungen auf Riemanschen Mannigfaltigkeiten mit zeitabhängiger Metrik. Es wurde sowohl die mathematische Wohlgestelltheit (Existenz, Eindeutigkeit, beschränkte Totalvariation) gezeigt, als auch effiziente numerische Algorithmen zur näherungsweisen Lösung solcher Gleichungen entwickelt und Eigenschaften dieser bewiesen (Stabilität, Monotonie, a priori unda posteriori Fehlerabschätzungen). Die Implementierung dieser Algorithmen auf leistungsfähigen Computern erlaubt schließlich die experimentelle Bestätigung der Optimalität der Resultate, die Entdeckung neuer Phänomene (geometrisch induzierte Schockwellen) als auch die experimentelle Simulation der Ausbreitung von Tsunamis, wie es im Rahmen der Dissertation durchgeführt wurde.

2014    Janine Kühn

Janine Kühn

Dr. Janine Kühn erhält den Ferdinand-von-Lindemann-Preis 2014 für ihre Dissertation:
„Limit theorems for random excursions“

[Bild Janine Kühn]

In der vorliegenden Arbeit werden Exkursionen untersucht, die entstehen, wenn ein Levy Prozess X an seinem laufenden Infimum reflektiert wird. Es werden Verteilungseigenschaften der Exkursionen unter dem Exkursionsmaß untersucht und ein allgemeiner Grenzwertsatz für bedingte zufällige Exkursionen wird formuliert. Als Anwendung werden Verzweigungsprozesse, insbesondere Galton-Watson Prozesse mit möglicherweise unendlicher Reproduktionsvarianz untersucht und ein Grenzwertsatz für den Höhenprozess des Galton-Watson Baums, bedingt unter großer Breite wird formuliert. Der Grenzwert ist eine Variante des bedingten Exkursionsmaßes, wobei unter der Lokalzeit der Levy Höhenprozess-Exkursion bedingt wird. Die Verteilungsgleichheit der Lamperti-Transformierten der Levy Höhenprozess-Exkursion und der Lamperti Transformierten der Levy Exkursion wird im alpha-stabilen, spektral positiven Fall bewiesen.

2013    Hans Fritz

Hans Fritz

Dr. Hans Fritz erhält den Ferdinand-von-Lindemann-Preis 2013 für seine Dissertation
„Finite Elemente Approximation der Ricci-Krümmung und Simulation des Ricci-DeTurck-Flusses“

[Bild Hans Fritz]

Die Arbeit befasst sich mit der Finite Elemente Approximation der Ricci-Krümmung auf eingebetteten Hyperflächen. Hierfür wird die Ricci-Krümmung einer polyedrischen Hyperfläche beliebiger Dimension definiert und mit Methoden der Numerischen Analysis untersucht. Die Definition basiert dabei auf der Diskretisierung einer schwachen Formulierung der Ricci-Krümmung mittels Finiter Elemente. Für den zwei- und dreidimensionalen Fall werden Fehlerabschätzungen bewiesen, die in numerischen Tests bestätigt werden. Darüber hinaus wird ein neuer, vorteilhafter Ansatz zur Diskretisierung von geometrischen Differentialgleichungen auf Riemannschen Mannigfaltigkeiten eingeführt, welcher die übliche, für die Numerik jedoch nachteilige Darstellung mittels lokaler Karten vermeidet. Anhand dieser Methode wird ein Algorithmus zur Berechnung des Ricci-DeTurck-Flusses entwickelt. Beim Ricci DeTurck-Fluss handelt es sich um eine spezielle Reparametrisierung des Ricci-Flusses, bei dem eine Riemannsche Metrik proportional zu ihrer zugehörigen Ricci-Krümmung verformt wird. Große Bekanntheit erlangte der Ricci-Fluss als wichtiges Hilfsmittel beim Beweis der Poincaré Vermutung durch Grigori Perelman. Numerische Experimente zeigen die Konvergenz des Algorithmus. Ferner werden in der Arbeit numerische Ergebnisse zur Simulation von Singularitäten im dreidimensionalen Ricci-Fluss präsentiert.

2012    Johannes Schygulla

Johannes Schygulla

Dr. Johannes Schygulla erhält den Ferdinand-von-Lindemann-Preis 2012 für seine Dissertation:
„Willmore minimizers with prescribed isoperimetric ratio“

Johannes Schygulla

Motiviert durch ein vereinfachtes Modell für Zellmembranen wird in dieser Arbeit die Willmore-Energie unter allen 2-dimensionalen, in den 3-dimensionalen euklidischen Raum eingebetteten Flächen zu einem vorgegebenen eingeschlossenen Volumen und vorgeschriebenen Flächeninhalt minimiert. Des Weiteren wird die Willmore-Energie der Minimierer beschränkt sowie einige Grenzwertprozesse untersucht und analysiert.

Die bewiesenen Ergebnisse lagen in dieser Allgemeinheit bis dahin nicht vor.

bis 2011    

Bis 2011 wurde der Ferdinand-von-Lindemann-Preis für herausragende Dissertationen, Diplomarbeiten oder Staatsexamensarbeiten im Fach Mathematik vergeben:

2011 Clemans Jörder Deformation of morphisms
2010 Franz Baumdicker Mathematical population genomics of bacteria: a neutral theory
2009 Nena Röttgen Existenz von Minimax-Geodätischen
2008 Daniel Lengeler Regularitätstheorie in Räumen mit variablen Exponenten
2007 Matthias Bornhofen Abelian Sheaves over Finite Fields (Abelsche Garben über endlichen Körpern)
2006 Eva-Maria Schopp Stochastische Fixpunktgleichungen, exponentielle tail-Abschätzungen und large deviation für rekursive Algorithmen
2005 Tobias Lamm Biharmonic maps
2004 Andreas Dedner Solving the System of Radiation Magnetohydrodynamics for solar physical simulations in 3d
2003 Isolde Adler Spiele als Hilfsmittel zu Strukturuntersuchungen bei Graphen und Hypergraphen
2002 Fehmi Özkan Lévy Processes in Credit Risk and Market Models
2001 Mario Ohlberger A posteriori error estimates and adaptive methods for convection dominated transport processes
2000 Ralph Neininger Limit Laws for Random Recursive Structures and Algorithms
1999 Andreas Veeser Fehlerabschätzungen für ein Verfahren zur Berechnung von zweidimensionalen Dendriten
1998 Catharina Stroppel Untersuchungen zu den parabolischen Kazhdan-Lusztig-Polynomen für affine Weyl-Gruppen
1997 Sebastian Goette Äquivariante η-Invarianten homogener Räume
1996 Maximilian Kubierschky Remisfreie Spiele, Fixpunktlogiken und Normalformen
1995 Martin Grohe The Structure of Fix-Point Logics
1994 J. Michael Fried Berechnung des Krümmungsflusses von Niveauflächen
1993 Urs Lang Das asymptotische Plateau Problem in hyperbolischen n-Mannigfaltigkeiten
1992 Martin Moser Aspekte linearer Rangtests bei zensierten Daten
1991 Martin Beibel Eine Verallgemeinerung des Large Derivation Prinzips für die Brownsche Bewegung von Varadhan
1990 Uwe Bosse Kardinalsequenzen superatomarer Boolescher Algebren
1989 Heike Mildenberger Zur Entscheidbarkeit von Theorien in der monadischen zweiten Stufe

Clemens Jörder

[Bild Clemens Jörder] Clemens Jörder erhält den Ferdinand-von-Lindemann-Preis 2011 für seine Diplomarbeit: „Deformation of morphisms“

In derDiplomarbeit, die in dem Bereich der Deformationstheorie angesiedelt ist, wird eine Obstruktionsgruppe für die Deformierbarkeit einer holomorphen Abbildungen unter bestimmten geometrischen Annahmen an das Ziel der Abbildung angegeben. Dies umfasst insbesondere die Deformation von holomorphen Abbildungen in eine komplex-symplektische Mannigfaltigkeit.

Die Deformationstheorie beschäftigt sich mit der Deformation von Objekten der komplexen Geometrie wie zum Beispiel komplexe Mannigfaltigkeiten, eingebettete Mannigfaltigkeiten oder holomorphe Abbildungen. In allen Fällen ist es von Interesse, ob gegebene infinitesimale Deformationen eines Objekts einen Lift zu einer von einem komplexen Parameter abhängigen Deformation zulassen. Da die Deformierbarkeit lokal einfach nachzuweisen ist, besteht das wesentliche mathematische Problem in dem Übergang von der lokalen zur globalen Lösung. Dieses Vorgehen führt zu sogenannten Obstruktionsgruppen. Dabei handelt es sich um Kohomologiegruppen, deren Verschwinden eine hinreichende Bedingung für die Deformierbarkeit darstellt. In vielen Fällen ist das Verschwinden der Obstruktionsgruppe kein notwendiges Kriterium. Um dem entgegenzutreten, versucht man beim Vorliegen spezieller geometrischer Situationen, der Geometrie angepasste und damit bessere Obstruktionsgruppen als im allgemeinen zu finden. Die Diplomarbeit befasst sich mit der Deformation einer holomorphen Abbildung zwischen komplexen Mannigfaltigkeiten, wenn die Tangentialgarbe der Zielmannigfaltigkeit mit einer holomorphen Bilinearform ausgestattet ist. Dabei wird die Deformation lokal durch passend gewählte zeitabhängige Vektorfelder definiert, so dass der Übergang zur globalen Lösung kontrolliert werden kann. Die herausgearbeitete Obstruktionsgruppe ist die erste Kohomologie einer im allgemeinen nicht-kohärenten Untergarbe des Rückzuges des Tangentialbündels der Zielmannigfaltigkeit. Im symplektischen Fall reproduziert das Resultat teilweise Arbeiten von Voisin, Ran und Kawamata.

[nach oben]

Franz Baumdicker

[Bild Franz Baumdicker] Franz Baumdicker erhält den Ferdinand-von-Lindemann-Preis 2010 für seine Diplomarbeit:
„Mathematical population genomics of bacteria: a neutral theory“

Die Arbeit stellt ein neues mathematisches Model, das Infinitely Many Genes Model, vor. Mit Hilfe zufälliger Bäume und poissonverteilter Ereignisse werden in diesem Modell Aussagen über den Genpool einer solchen Population getroffen.

Das mathematische Gebiet der Populationsgenetik versucht die biologische Diversität einer Population und ihre Veränderung über die Zeit zu erklären. Im Wright-Fisher Modell, das die Verwandtschaftsverhältnisse innerhalb einer Population beschreibt, erhält man für große Populationsgrößen einen stochastischen Stammbaum als Grenzobjekt, den Kingman coalescent. In Anlehnung an das Infinitely Many Sites Model, das die Variation in DNA-Sequenzen, anhand von Mutationen entlang der Äste dieses Baums, beschreibt, wurde das Infinitely Many Genes Model eingeführt. Gene die ein Individuum trägt müssen nicht zwangsläufig in allen Individuen vorhanden sein. Dadurch können sich die Genome einzelner Individuen unterscheiden. Dies bedeutet, dass manche Gene von Generation zu Generation gewonnen oder verloren werden können. Das Modell besteht neben dem zufälligen Baum, aus den zwei Mechanismen des Gengewinns und Verlusts. Entlang der Ahnenlinien des Kingman coalescent werden neue Gene aus der Umgebung mit konstanter Rate aufgenommen (horizontaler Genfluss). Jedes vorhandene Gen wird wiederum mit konstanter Rate verloren, z.B. durch schädliche Mutationen. Mit Methoden der Diffusionstheorie und Kombinatorik wurden in dem Modell Formeln für verschiedene Statistiken und Kenngrößen bewiesen: Die mittlere Genomgröße, die erwartete Anzahl unterschiedlicher Gene zwischen zwei Individuen, die Anzahl inkongruenter Genpaare, sowie die Gesamtgröße des Genpools und das Genfrequenzspektrum. In Kooperation mit Prof. W. Hess wurde gezeigt, dass dieses Modell plausible Werte für Genfrequenzdaten aus Prochlorococcus-Stämmen (Cyanobakterien) erzeugt und zum Verständnis evolutionärer Mechanismen beitragen kann.

[nach oben]

Nena Röttgen

[Bild Nena Röttgen] Nena Röttgen erhält den Ferdinand-von-Lindemann-Preis 2009 für ihre Diplomarbeit: „Existenz von Minimax-Geodätischen“

Das Minimax-Prinzip wurde 1917 von G. D. Birkhoff eingeführt, um die Existenz geschlossener Geodätischer auf beliebigen Sphären zu zeigen. Es ist seither eine wichtige Methode in der Variationsrechnung geworden, die in vielfältigen Variationen Anwendung findet. In dieser Arbeit wird dieses Prinzip angewendet, um die Existenz einer Minimax-Geodätischen im innern eines von zwei minimalen Geodätischen berandeten Streifens zu zeigen. Birkhoff definierte in seinem Beweis zunächst einen Verkürzungsprozess auf geschlossenen Kurven und wendete diesen auf nicht zusammenziehbare Homotopien an. Indem er die Länge der längsten auftretenden Kurve minimierte, fand er eine Folge von Kurven, die gegen eine geschlossene Geodätische konvergiert. Überträgt man diese idee auf Homotopien zwischen zwei minimalen Geodätischen, so treten neue Fragen auf: Was ist das zugehörige variationsproblem? Lässt sich der verkürzungsprozess sinnvoll anpassen? Konvergieren die wie in Birkhoffs Beweis konstruierten kurven gegen eine Geodätische? In dieser Arbeit wird ein Funktional definiert, das die Länge einer Kurve mit der länge einer Randkurve vergleicht. Ist die Oberfläche des Streifens endlich und die Krümmung nach oben beschränkt, kann mit diesem Funktional das Variationsproblem sinnvoll beschrieben werden. es wird gezeigt, dass die genannten Bedingungen hinreichend sind, um den Birkhoff-Prozess zu verallgemeinern und die gewünschte Konvergenzeigenschaft, die sogenannte Palais-Smale-Bedingung, zu zeigen. analog zum klassischen Beweis kann somit die Existenz einer Geodätischen im Innern des Streifens gezeigt werden, die aufgrund der Konstruktion als Minimax-Geodätische bezeichnet wird.

[nach oben]

Daniel Lengeler

[Bild Daniel Lengeler] Daniel Lengeler erhält den Ferdinand-von-Lindemann-Preis 2008 für seine Diplomarbeit: „Regularitätstheorie in Räumen mit variablen Exponenten“

Diese Diplomarbeit ist in der Regularitätstheorie linearer, partieller Differential­gleichungen angesiedelt. Daniel Lengeler überträgt die klassische Lp-Theorie von Poissongleichung und Stokessystem auf beschränkten Gebieten auf den allgemeineren Fall von Lebesgue- und Sobolevräumen mit variablen Exponenten.

Die Regularitätstheorie partieller Differentialgleichungen beschäftigt sich mit Integrabilität und Differenzierbarkeit von Lösungen der Gleichungen. Sie spielt eine wichtige Rolle sowohl in der Theorie als auch in der Numerik partieller Differentialgleichungen. Die klassische Lp-Theorie von Poissongleichung und Stokessystem ist seit den 1960er Jahren bekannt und beruht wesentlich auf den Arbeiten von Calderon und Zygmund sowie von Agmon, Douglis und Nirenberg uber singuläre Integrale. Die Lösungen besagter Gleichungen auf beschränkten Gebieten lassen sich lokal durch ein Abschneideargument und Koordinaten­transformation auffassen als Lösungen auf dem Ganzraum bzw. auf dem Halbraum. Dort lassen sie sich mittels geeigneter Fundamentallösungen explizit als Integraltransformierte der Daten darstellen. Nach zweimaligem Differenzieren erhält man stark singuläre Kerne unter dem Integral, sodass obige Theorie zum Einsatz kommt. Lebesgue- und Sobolev-Räume mit variablen, d.h. "orts"-abhängigen Exponenten spielen eine wesentliche Rolle bei der Modellierung "smarter" Materialien, wie z.B. elektrorheologischer Fluide. Die mechanischen Eigenschaften solcher Fluide ändern sich unter dem Einfluss eines elektromagentischen Feldes. Während die Verallgemeinerung des Resultats von Calderon und Zygmund bereits bewiesen wurde, liegt der Schwerpunkt der Diplomarbeit auf der Verallgemeinerung der Satzes von Agmon, Douglis und Nirenberg sowie der Ausarbeitung der Regularitätstheorie von Poissongleichung und Stokessystem im Kontext variabler Exponenten.

[nach oben]

Matthias Bornhofen

Matthias Bornhofen erhält den Ferdinand-von-Lindemann-Preis 2007 für seine Diplomarbeit:
„Abelian Sheaves over Finite Fields (Abelsche Garben über endlichen Körpern)“

Diese Diplomarbeit ist in der Arithmetik der Funktionenkörper angesiedelt, einem Teilgebiet der algebraischen Zahlentheorie. Matthias Bornhofen entwickelt die Theorie der abelschen Garben über endlichen Körpern und zeigt, dass sie stark der klassischen Theorie der abelschen Varietäten ähnelt.

Die Arithmetik der Funktionenkörper beschäftigt sich mit den zahlentheoretischen Eigenschaften endlich erzeugter Körper vom Transzendenzgrad eins über endlichen Körpern. Sie erlebte in den 1920-er und 1930-er Jahren ihre erste Blüte durch die Definition von Zeta-Funktionen für solche Funktionenkörper durch Emil Artin und F.K. Schmidt und den Beweis der Riemannschen Vermutung für diese Zeta-Funktionen durch Helmut Hasse und André Weil. Durch Vladimir Drinfelds Arbeiten in den 1970er Jahren erhielt sie neuen Aufschwung. Die von ihm erfundenen Drinfeld-Moduln ähneln in ihren zahlentheoretischen Eigenschaften stark den elliptischen Kurven. Elliptische Kurven und ihre höherdimensionalen Verallgemeinerungen, die abelschen Varietäten, sind seit 150 Jahren zentrale Objekte in der algebraischen Geometrie und der Zahlentheorie. In der Arithmetik der Funktionenkörper übernehmen nun Drinfeld-Moduln die Rolle der elliptischen Kurven. Mit ihrer Hilfe gelang der Beweis der globalen Langlandsvermutung für Funktionenkörper durch Drinfeld und zuletzt durch Laurent Lafforgue, wofür beide die Fields-Medaille erhielten. Als Analogien der abelschen Varietäten und höherdimensionale Verallgemeinerung von Drinfeld-Moduln kommen verschiedene Objekte in der Arithmetik der Funktionenkörper in Betracht, darunter die sogenannten abelschen Garben. Herr Bornhofen entwickelt die Theorie der abelschen Garben über endlichen Körpern und zeigt, dass sie weitestgehend parallel verläuft zu der, von John Tate entwickelten, klassischen Theorie der abelschen Varietäten über endlichen Körpern. Damit etabliert er die abelschen Garben als das passende Analogon zu den abelschen Varietäten.

[nach oben]

Eva-Maria Schopp

Eva-Maria Schopp erhält den Ferdinand-von-Lindemann-Preis 2006 für ihre Diplomarbeit:
„Stochastische Fixpunktgleichungen, exponentielle tail-Abschätzungen und large deviation für rekursive Algorithmen“

In der Diplomarbeit "Stochastische Fixpunktgleichungen, exponentielle tail Abschätzungen und large deviation für rekursive Algorithmen" werden neue Methoden (exponentielle tail Abschätzungen) entwickelt, mit denen sich das Verhalten von (z.B.) rekursiven Algorithmen genauer untersuchen lässt. Für einige wichtige Kenngrößen, die bei der Analyse von Algorithmen auftreten, werden präzise Grenzwertaussagen gemacht.

Stochastische rekursive Gleichungen treten bei einer Vielzahl von Problemen auf: verschiedene Baumstrukturen, die zur Organisation von Daten verwendet werden, Algorithmen zur Lösung von Such-, Sortier- und Auswahlproblemen, Algorithmen auf Graphen und Zeichenketten (DNA Sequenzen, Suche im Internet) und kombinatorische Probleme haben rekursive Struktur. Um sich gegen große Abweichungen der interessanten Kenngrößen vom Erwartungswert abzusichern, untersucht man das tail Verhalten dieser rekursiven Strukturen. Ausgehend von der Kontraktionsmethode, die ein effektives Werkzeug zur Analyse des asymptotischen Verhaltens dieser Rekursionen darstellt, werden in der Arbeit zahlreiche exponentielle tail Abschätzungen vorgenommen und Anwendungsbeispiele behandelt. Es werden sowohl Rekursionen vom additiven Typ untersucht, wie sie bei average-case Analysen auftreten, als auch max-rekursive Gleichungen, die bei worst-case Untersuchungen auftreten. Dazu werden sowohl klassische Konzentrationsungleichungen wie Abschätzungen aller Momente und der Laplacetransformierten genutzt. Die tails der Limiten der geeignet normierten Rekursionen, die mit der Kontraktionsmethode als Lösung einer Fixpunktgleichung charakterisiert werden können, werden mit analogen Methoden erfolgreich untersucht.

Im zweiten Teil der Arbeit wird ein allgemeiner b-närer Baum mit zufälligen Gewichten analysiert. Ein Resultat von N. Broutin und L. Devroye (2005) über die Konvergenz der gewichteten Höhe wird auf den Fall abhängiger Gewichte mittels des Gärtner-Ellis-Theorems verallgemeinert. Ein Grenzwertsatz für die interne Pfadlänge dieses Baumes wird gezeigt. Dabei wird die Kontraktionsmethode erstmals auf den Fall mit stetiger Zeit verallgemeinert.

[nach oben]

Tobias Lamm

Dr. Tobias Lamm erhält den Ferdinand-von-Lindemann-Preis 2005 für seine Dissertation: „Biharmonic maps“

In seiner Dissertation "Biharmonic maps " untersucht Dr. Tobias Lamm biharmonische Abbildungen und deren zugehörigen Wärmefluss. Dabei wurden unter geeigneten Nebenbedingungen die Langzeitexistenz und die Konvergenz des Wärmeflusses gezeigt. Weiterhin wurde ein Kompaktheitsresultat für eine Approximation von harmonischen Abbildungen durch biharmonische Abbildungen bewiesen.

Begründung: In Folge unserer immer stärker werdenden Abhängigkeit von empfindlichen technischen Geräten hat auch die Bedrohung durch die elektrisch geladenen Sonnenstürme zugenommen. Über deren Entstehung ist bisher nicht viel bekannt, bedingt durch die Schwierigkeiten, direkte Messungen vorzunehmen. Daher sind numerische Simulationen ein unverzichtbares Werkzeug zum besseren Verständnis der physikalischen Prozesse im Inneren der Sonne und ein wichtiger Schritt, um zuverlässige Vorhersagen machen zu können. Bei der Entwicklung solcher Methoden kann die numerische Mathematik einen zentralen Beitrag leisten.rtielle Differentialgleichungen vierter Ordnung spielen eine wichtige Rolle in der Geometrie und Physik, wie z.B. beim Studium der Willmoreflächen oder der Plattengleichung. Da die hierzu notwendigen analytischen Hilfsmittel noch nicht weit entwickelt sind, werden biharmonische Abbildungen als ein explizites Modellproblem untersucht.

Methodik: für partielle Differentialgleichungssysteme vierter Ordnung kein allgemeines Maximumprinzip vorhanden ist, erfolgt das Studium der biharmonischen Abbildungen mit Hilfe von Energieabschätzungen. Aufgrund der Invarianz der Lösungen unter Streckungen tritt dabei auch eine so genannte Konzentrations-Kompaktheits-Alternative auf. Mit Hilfe eines Reskalierungsprozesses wird der Fall der Konzentration genauer untersucht.

Ergebnisse: Durch geeignet gewählte Voraussetzungen an die Anfangsenergie oder die Geometrie des Zielraumes lässt sich der Fall der Konzentration beim biharmonischen Wärmefluss ausschließen. Damit erhält man die Langzeitexistenz und die Konvergenz des Flusses. Im Fall der Approximation von harmonischen Abbildungen durch biharmonische Abbildungen lässt sich die Konzentration nicht ausschließen. Dennoch kann die Abbildung in der Nähe der Konzentrationsmenge sehr genau beschrieben werden. Dies reicht aus, um ein verallgemeinertes Kompaktheitsresultat zu beweisen.

[nach oben]

Andreas Dedner

Dr. Andreas Dedner erhält den Ferdinand-von-Lindemann-Preis 2004 für seine Dissertation:
„Solving the System of Radiation Magnetohydrodynamics for solar physical simulations in 3d“

Ziel der Arbeit "Solving the System of Radiation Magnetohydrodynamics for solar physical simulations in 3d " war die Entwicklung numerischer Werkzeuge, um Simulationen der solaren Atmosphäre durchzuführen, mit deren Hilfe offene Fragen wie etwa die Entstehung von Sonnenflecken untersucht werden sollten. Die Arbeit entstand im Rahmen eines DFG Schwerpunktprogramms in Kooperation mit einer Gruppe von Sonnenphysikern am Kiepenheuer Institut in Freiburg und am Max-Planck Institut für Sonnensystemforschung in Katlenburg Lindau.

Begründung: In Folge unserer immer stärker werdenden Abhängigkeit von empfindlichen technischen Geräten hat auch die Bedrohung durch die elektrisch geladenen Sonnenstürme zugenommen. Über deren Entstehung ist bisher nicht viel bekannt, bedingt durch die Schwierigkeiten, direkte Messungen vorzunehmen. Daher sind numerische Simulationen ein unverzichtbares Werkzeug zum besseren Verständnis der physikalischen Prozesse im Inneren der Sonne und ein wichtiger Schritt, um zuverlässige Vorhersagen machen zu können. Bei der Entwicklung solcher Methoden kann die numerische Mathematik einen zentralen Beitrag leisten.

Methodik: Es wurde ein Finite-Volumen Verfahren entwickelt, welches besonders gut geeignet ist, die sehr unterschiedlichen physikalischen Prozesse zu behandeln. Besonders wichtig ist dabei die Wechselwirkung des Plasmas mit Magnetfeldstrukturen, so wie die korrekte Berechnung des Strahlungsfeldes. Zur Steigerung der Effizienz der Verfahren wurden sowohl Parallelisierung wie auch lokale Gitteradaption eingesetzt.

Ergebnisse: Die Berechnung zeitabhängiger Prozesse in drei Raumdimensionen ist sehr zeitaufwendig, so dass die Effizienz der Verfahren besondere Beachtung finden musste. Hierbei ist uns eine Verbesserung der einzelnen Teile der Algorithmus gelungen, die zu einer Verringerung der Laufzeit um einem Faktor von 10 bis 100 führen. Weiterhin lag ein Hauptaugenmerk auf der mathematischen Rechtfertigung der eingesetzten Methoden, wobei entsprechende Abschätzungen der Approximationsfehler bewiesen wurden.

Diskussion: Eine vollständige Beschreibung und Simulation der solaren Atmosphäre ist mit den heutigen Mitteln noch nicht möglich. Zum einen stehen dem die extremeren Orts- und Zeitskalen im Wege, zum anderen die vielfältigen physikalischen Prozesse, deren vollständige Behandlung noch zu aufwendig ist. Zur Untersuchung einzelner Phänomene allerdings können die modernen mathematischen Methoden einen entscheidenden Beitrag leisten.

Schlußfolgerung: Bei der Behandlung solcher komplexen Probleme kommt sowohl der effizienten Umsetzung der Verfahren mit modernsten Methoden der Informatik, wie auch deren mathematische Fundierung, eine zentrale Bedeutung zu. Eine endgültige Validierung der Methoden wiederum kann nur in enger Zusammenarbeit mit Sonnenphysikern erfolgen. Ein Schritt zur Verknüpfung dieser unterschiedlichen Anforderungen ist in dieser Arbeit durchgeführt worden.

[nach oben]

Isolde Adler

Isolde Adler erhält den Ferdinand-von-Lindemann-Preis 2003 für ihre Diplomarbeit:
„Spiele als Hilfsmittel zu Strukturuntersuchungen bei Graphen und Hypergraphen“.

Fehmi Özkan

Dr. Fehmi Özkan erhält den Ferdinand-von-Lindemann-Preis 2002 für seine Dissertation:
„Lévy Processes in Credit Risk and Market Models“.

Mario Ohlberger

Dr. Mario Ohlberger erhält den Ferdinand-von-Lindemann-Preis 2001 für seine Dissertation:
„A posteriori error estimates and adaptive methods for convection dominated transport processes“.

Ralph Neininger

Dr. Ralph Neininger erhält den Ferdinand-von-Lindemann-Preis 2000 für seine Dissertation:
„Limit Laws for Random Recursive Structures and Algorithms“.

Andreas Veeser

Dr. Andreas Veeser erhält den Ferdinand-von-Lindemann-Preis 1999 für seine Dissertation:
„Fehlerabschätzungen für ein Verfahren zur Berechnung von zweidimensionalen Dendriten“.

Catharina Stroppel

Catharina Stroppel erhält den Ferdinand-von-Lindemann-Preis 1998 für ihre Staatsexamensarbeit:
„Untersuchungen zu den parabolischen Kazhdan-Lusztig-Polynomen für affine Weyl-Gruppen“.

Dr. Sebastian Goette

Dr. Sebastian Goette erhält den Ferdinand-von-Lindemann-Preis 1997 für seine Dissertation:
„Äquivariante η-Invarianten homogener Räume“.

Maximilian Kubierschky

Maximilian Kubierschky erhält den Ferdinand-von-Lindemann-Preis 1996 für seine Diplomarbeit:
„Remisfreie Spiele, Fixpunktlogiken und Normalformen“.

Martin Grohe

Dr. Martin Grohe erhält den Ferdinand-von-Lindemann-Preis 1995 für seine Dissertation:
„The Structure of Fix-Point Logics“.

J. Michael Fried

Michael Fried erhält den Ferdinand-von-Lindemann-Preis 1994 für seine Diplomarbeit:
„Berechnung des Krümmungsflusses von Niveauflächen“.

Urs Lang

Dr. Urs Lang erhält den Ferdinand-von-Lindemann-Preis 1992 für seine Dissertation:
„Das asymptotische Plateau Problem in hyperbolischen n-Mannigfaltigkeiten“.

Martin Moser

Martin Moser erhält den Ferdinand-von-Lindemann-Preis 1992 für seine Diplomarbeit:
„Aspekte linearer Rangtests bei zensierten Daten“.

Martin Beibel

Martin Beibel erhält den Ferdinand-von-Lindemann-Preis 1991 für seine Diplomarbeit:
„Eine Verallgemeinerung des Large Derivation Prinzips für die Brownsche Bewegung von Varadhan“.

Uwe Bosse

Uwe Bosse erhält den Ferdinand-von-Lindemann-Preis 1990 für seine Diplomarbeit:
„Kardinalsequenzen superatomarer Boolescher Algebren“.

Heike Mildenberger

Heike Mildenberger erhält den Ferdinand-von-Lindemann-Preis 1989 für ihre Diplomarbeit:
„Zur Entscheidbarkeit von Theorien in der monadischen zweiten Stufe“.

[nach oben]