Forschungsprogramm

Zentrale Forschungsidee

Die zentrale konzeptionelle Idee des Graduiertenkollegs in Form des Roten Fadens spiegelt sich auch im Forschungsprogramm wieder. Wir wollen relevante Fragestellungen aus Teilbereichen der Ökonomie mit Hilfe von mathematischer Modellbildung, Analyse und Simulation untersuchen. Hierzu grenzen wir zunächst die ökonomischen Problemfelder ein, die im Rahmen des Graduiertenkollegs behandelt werden sollen. Diese stammen vornehmlich aus der Finanz- und Versicherungswirtschaft. Wir unterscheiden 5 Teilbereiche, die in der folgenden Tabelle 1 zusammengefaßt sind. Die beschriebenen Projektbereiche sind sowohl von den beteiligten Wissenschaftlern aus den Wirtschaftswissenschaften als auch unseren außeruniversitären Partnern in das Graduiertenkolleg eingebracht worden.

Ökonomische Themenbereiche:

Im Folgenden beschreiben wir zunächst kurz die einzelnen ökonomischen Themenbereiche. Hierbei zeigen wir die relevanten Fragestellungen auf und beschreiben, auf welche mathematischen Problemstellungen dies führt bzw. welche mathematischen Techniken sinnvoll eingesetzt werden können. Diese wiederum sind im Graduiertenkolleg durch 6 mathematische Forschungsschwerpunkte repräsentiert, welche vor allem im Bereich der Datenanalyse und Simulation eng mit der Angewandten Informationsverarbeitung kooperieren. Diese Forschungsschwerpunkte sind in Tabelle 2 zusammengefasst.

Mathematische Forschungsschwerpunkte des Graduiertenkollegs:

Nach der Darstellung der ökonomischen Fragestellungen beschreiben wir detailliert die für das Graduiertenkolleg relevanten mathematischen Forschungsschwerpunkte.

Ökonomische Themenbereiche

Wir beschreiben nun zunächst die ökonomischen Fragestellungen, die im Graduiertenkolleg mit mathematischen Methoden untersucht werden sollen. Hier beschränken wir uns zunächst auf die Problembeschreibung und die Darstellung der relevanten mathematischen Disziplinen.

A.1 Bewertung komplexer Finanzprodukte

Die Entwicklung auf den Finanzmärkten der letzten Jahre ist gekennzeichnet durch ein rapides Anwachsen der Anzahl komplexer Finanzprodukte wie Zins- und Kreditderivate, strukturierte Finanzprodukte (etwa Collaterized Debt Obligations (CDO), Mortgage-backed Securities, Securitization of insurance risk, Convertible Bonds und viele mehr). Die Bewertung solcher Wertpapiere und Derivate erfordert eine genaue Modellierung aller relevanten Risikofaktoren einhergehend mit einer detaillierten Datenanalyse und eine effiziente numerische Umsetzung. Wir werden insbesondere Kreditderivate und asset-backed securities (mit der besonderen Schwierigkeit Abhängigkeitsstrukturen exakt zu modellieren) untersuchen. Die ökonometrische Analyse von Abhängigkeitsstrukturen stellt einen zentralen Aspekt des Bereichs A.4 dar. Ein weiteres hochaktuelles Forschungsgebiet in diesem Bereich ist die Anwendung von finanzmathematischen Techniken zur Bewertung von Versicherungsverträgen (insbesondere im Bereich der Lebens- und Pensionsversicherungen) zu Marktpreisen. Hier geht es insbesondere darum, Optionalitäten und Garantien in der Vertragsgestaltung exakt zu bewerten.

Seitenanfang

A.2 Risikoanalyse und -management

Risikomanagement spielt bei Banken und Versicherungen und in zunehmendem Maße auch bei Industrieunternehmen eine herausragende Rolle. Die gegenwärtige Diskussion über die Vorschläge zu regulatorischen Kapitalanforderungen (Basel II) an Kreditinstitute belegen die Aktualität dieses Fragenkomplexes. Im Rahmen des Themenschwerpunktes sollen folgende Projekte verfolgt werden: Weiterentwicklung bestehender Modelle zur Risikomessung; Design von Risikomanagementsystemen; Parameterschätzungen für Risikomodelle (insbesondere in Bezug auf Default- und Migrationswahrscheinlichkeiten, Abhängigkeitsstrukturen); optimale Risikopolitik auf Basis quantitativer Risikomanagementsysteme. Darüber hinaus soll Risikosteuerung im Rahmen von Asset-Liability Modellen von Versicherungsunternehmen untersucht werden. Hier geht es insbesondere um die Analyse dynamischer Strategien (sogenannte Management Regeln) und um Kriterien und deren Messverfahren zur Beurteilung der Auswirkung derartiger Strategien auf das Unternehmens-Risiko. Diese Methoden sollen dann auch auf analoge Fragestellungen der betrieblichen Altersvorsorge angewendet werden, insbesondere auf

Seitenanfang

A.3 Optimale Strategien

Die Bestimmung optimaler Anlagestrategien ist eine zentrale Aufgabe in der Finanz- und Versicherungswirtschaft. Die dabei auftretenden Optimierungsprobleme erfordern eine genaue Modellierung der zugrundeliegenden stochastischen Prozesse, eine exakte Datenanalyse sowie effiziente Lösungs- und Simulationsverfahren. Wir wollen insbesondere Portfolioprobleme mit unstetigen Vermögensprozessen untersuchen. Benchmark- und Nutzenkriterien stehen neben spieltheoretischen Lösungsansätzen im Vordergrund des Interesses. Ein weiterer Schwerpunkt wird die Analyse von Anlageproblemen mit partieller Information sein. Besonders interessant sind hier Probleme mit unvollständigen Daten (z.B. unbekannte Driftrate oder Sprunghöhe) und mit unterschiedlichen Annahmen zur Informationsstruktur der beteiligten ökonomischen Agenten (z.B. Insider-Wissen, Modellierung von Verhandlungen von Bond- und Equityholdern im Rahmen der Bewertung von Unternehmensanleihen). Schließlich sollen noch Asset-Liability Modelle für Versicherungsunternehmen und das optimale Design von Altersvorsorgeversicherungen analysiert werden.

Seitenanfang

A.4 Ökonometrische Analyse und Strategien

Ein zentraler Aspekt der Ökonometrischen Analyse von Finanzmärkten ist die Untersuchung der Zeitreiheneigenschaften von Kapitalmarktdaten. In letzter Zeit werden jedoch verstärkt auch Paneldaten - kombinierte Querschnitts- und Zeitreihendaten - verwendet. Insbesondere bei nicht stationären Paneldaten stellen sich aber eine Reihe von methodischen Problemen, da die Verteilung der geschätzten Koeffizienten nicht exakt bestimmt werden kann. Dafür werden üblicherweise Simulationsmethoden eingesetzt. In diesem Bereich sollen die methodischen Grundlagen für die ökonometrische Analyse von Paneldaten für Kapitalmarktvariablen erforscht werden. Für viele ökonomische Fragestellungen werden aggregierte Zeitreihendaten benutzt, die auch als räumlich aufgelöste Daten vorliegen. Es sollen Methoden zur Modellierung von zeitlichen Abhängigkeiten (Zeitreihenmodelle) und Verfahren der räumlichen Statistik (siehe M.1.2) verknüpft werden um eine weitergehende Analyse zu ermöglichen. Die daraus entstehenden Verfahren sind für viele weitere Anwendungen interessant. Für Mortalitätsuntersuchungen bei Versicherungsunternehmen sollen Scoring-Verfahren und Methoden zur Vorhersage der Lebenserwartung konzipiert und untersucht werden. Hierzu müssen insbesondere neue Verfahren der nichtparametrischen Statistik entwickelt werden. Ein weiteres Anwendungsfeld ist die Analyse von Ratingänderungen, deren Ergebnisse wichtig für den optimierten Einsatz von Ratings im Risikomanagement sind. Neben der Panelstruktur (viele Unternehmen über die Zeit) muß die ökonometrische Analyse auch den kategorialen Daten und möglichen Thresholds bei der Ratinganpassung gerecht werden. Eine wichtige Fragestellung im Rahmen des Kreditrisikomanagements ist die Schätzung von Ausfallwahrscheinlichkeiten und Transitionsmatrizen. Typischerweise werden Ausfallwahrscheinlichenkeiten (Transitionsmatrizen) auf der Grundlage verallgemeinerter Linearer Modelle geschätzt, meist (ordered) Probit. Im Rahmen des Projekts sollen Ergebnisse aus den rein parametrischen Verfahren mit flexibleren nicht-parametrischen Verfahren verglichen werden. Dabei werden insbesondere nicht-parametrische Linkfunktionen und Verallgemeinerungen der unabhängigen Variablen eingeführt. Eine weitverbreitete Annahme bei der Analyse internationaler Finanzmärkte ist die Zunahme der Abhängigkeit der Returns in Phasen eines Marktabschwungs (Contagion Effects in Bear Markets). Diese Aussage soll mittels eines neuentwickelten Tail-Dependence Schätzers untersucht werden, hierbei ist noch eine explizite Zeitabhängigkeit zu modellieren.

Seitenanfang

A.5 Knowledge Discovery und Data Mining

Bei der Bewertung von finanz- und versicherungstechnischen Risiken stehen traditionell Fragestellungen im Vordergrund, die entweder nur die Analyse des momentanen Ist-Zustandes dieser Risiken betreffen oder vorwiegend auf zeitliche Entwicklungen der betreffenden Risiken Bezug nehmen. Insbesondere bei versicherungstechnischen Risiken interessiert jedoch auch die Frage, ob und in welcher Weise diese Risiken von ihrem jeweiligen (geographischen) Standort abhängen bzw. ob (und, wenn ja, wie) sich diese Ortsabhängigkeit im Laufe der Zeit ändert (z.B. regionalisierte Tarife in der Kfz-Versicherung, Bewertung von Risiken aus Elementarschäden). Im Rahmen dieses Themenschwerpunktes wollen wir uns u.a. mit der Entwicklung der mathematischen Analyse der Morphologie, d.h. der räumlichen Struktur, von finanz- bzw. versicherungstechnischen (Bild-)Daten beschäftigen, mit dem Ziel, damit die Effizienz von Risikomanagementsystemen zu verbessern. Ein weiterer wichtiger Aspekt ist die Entwicklung von statistischen Signifikanztests zum Vergleich solcher räumlichen Strukturen. Dies soll insbesondere für die kombinierte Raum-Zeit-Analyse von finanz- und versicherungstechnischen Daten eingesetzt werden, um prinzipielle geometrische Struktureigeneigenschaften der Daten zu erfassen und zu quantifizieren. Damit wird es möglich, Strukturänderungen in den Daten zu diagnostizieren, auch wenn nur ,,kurze Zeitreihen'' vorliegen. In diesem Zusammenhang sollen auch notwendige Transformationen untersucht werden, die erforderlich sein können, um eine homogene Verteilung der Strukturen über das gesamte ,,Bild'' zu erreichen. Dies soll dann insbesondere zur die Entwicklung von ,,Frühwarnsystemen'' herangezogen werden, um damit rechtzeitig Abweichungen in der Geschäftsentwicklung von Finanzdienstleistern erkennen zu können. Dabei werden wir ebenfalls untersuchen, inwieweit diese Verfahren auch für ähnlich strukturierte (virtuelle) ,,Landkarten'' bei der Visualisierung von bivariaten Daten eingesetzt werden können, bei denen kein geographischer Bezug vorliegt. Damit werden diese Verfahren auch für weitere zentrale Fragestellungen interessant, wie mehrdimensionale Ansätze der Kundenwertanalyse (in Form verallgemeinerter Scoring Verfahren) oder die Storno-Prophylaxe. Weitere wesentliche Aspekte, die in diesem Themenbereich des Graduiertenkollegs behandelt werden, sind Fragen der geeigneten datentechnischen Strukturen sowie die Einbindung der statischen Verfahren in die Organisations- und Kontrollprozesse der Unternehmen. Bei letzterer Fragestellung soll insbesondere das CRISP-DM-Modell im Rahmen des KDD entsprechend verallgemeinert werden.

Seitenanfang

Mathematische Forschungsschwerpunkte

M.1 Stochastische Modelle, ihre Analyse und Simulation

In diesem Forschungsschwerpunkt werden Ideen aus der Theorie stochastischer Prozesse und Felder, der Extremwerttheorie und Abhängigkeitsmodellierung (Copulas) genutzt. Darüber hinaus werden Techniken vornehmlich aus der stochastischen Geometrie bzw. des Markov-Chain-Monte-Carlo aufgegriffen und weiterentwickelt.

M.1.1 Extremwerttheorie und Modellierung von Abhängigkeiten

Im Bereich der Risikoabschätzung von Anlage- und vor allem Kreditportfolios möchte man die Wahrscheinlichkeit für simultane große Verluste kontrollieren. Dazu nimmt man an, daß die zugehörige gemeinsame Verteilung im Anziehungsbereich einer multivariaten Extremwertverteilung liegt und kann so sogenannte Tailwahrscheinlichkeiten berechnen. Im Gegensatz zu eindimensionalen Extremwertverteilungen hat man im mehrdimensionalen Fall ein semiparametrisches Modell vor sich. Unser Ausgangsproblem ist hochdimensional und so kommen der "curse of dimensionality'' und die "sparseness of data'' in den Tails zusammen und machen das Problem für statistische Verfahren zu einem schwierigen Problem. Wir wollen folgende Strategien verfolgen: Einerseits versucht man reichhaltige Verteilungsfamilien zu finden, die Abhängigkeiten in den Tails ermöglichen und gleichzeitig variabel und parametrisch sind. Mit geeigneten Klassen von Copulae und Randverteilungen kann man dann insgesamt ein parametrisches Modell anpassen. Andererseits sind Dimensionsreduktionsansätze in den Tails interessant, wie man sie auch anderweitig in der Statistik kennt. Dabei muss man z.B. Verfahren entwickeln, die es erlauben, in den Tails Komponenten zu Gruppen zusammenzufassen, um damit die Dimension systematisch zu reduzieren und dies in das Modell einzupassen.

M.1.2 Stochastische Geometrie und Monte-Carlo-Simulation

In diesem Teilprojekt sollen Probleme stochastisch modelliert, analysiert und simuliert werden, die vorwiegend mit ökonomischen Fragestellungen zusammenhängen, die in A.4 bzw. A.5 beschrieben werden. Die dabei zu entwickelnden Modelle und Methoden werden Ideen der Theorie der stochastischen Prozesse und Felder, der stochastischen Geometrie bzw. des Markov-Chain-Monte-Carlo (MCMC) aufgreifen und weiterentwickeln. Insbesondere sollen stochastische Raum-Zeit-Modelle für finanz- und versicherungstechnische Daten entwickelt werden, die durch unregelmäßige, jedoch geometrisch strukturierte Punktmuster, Mosaike mit konvexen Zellen bzw. Keim-Korn-Konfigurationen dargestellt und gleichzeitig einer zeitlichen Dynamik unterliegen können. Darüber hinaus sollen auch "bewertete'' zufällige Mengen untersucht werden, die als Modelle für mehrphasige Bilddaten (Graustufenbilder) dienen können. Die interessierenden Fragestellungen und damit auch die entsprechenden mathematischen Modelle sind typischerweise so komplex, daß sie nicht ausschließlich mit analytischen Formeln untersucht werden können. Die MCMC-Simulation der betrachteten Modelle bietet dann ein nützliches alternatives Analyse-Tool. Dabei sollen vor allem zeitinvertierte Kopplungsalgorithmen der perfekten MCMC-Simulation entwickelt und validiert werden.

Seitenanfang

M.2. Statistische Inferenz und Datenanalyse

Das Ziel dieses Forschungsschwerpunktes ist die Weiterentwicklung von Methoden der räumlichen Statistik und nichtparametrischen Statistik sowie deren Anwendung auf Risikoprobleme.

M.2.1 Nichtparametrische Statistik

Hier geht es einmal um die Modellierung von Ausfall- bzw. Übergangswahrscheinlichkeiten zwischen Ratingklassen. In finanzmathematischen Modellen hängen diese z.B. von Indizes ab, die die Wirtschaftsentwicklung beschreiben. Es ist naheliegend, deshalb verallgemeinerte lineare Modelle (Logit- oder Probit-Modelle) zu benutzen. Die Einflußvariablen werden bis jetzt als endlicher Vektor modelliert. Aber die zugrundeliegenden Daten folgen stochastischen Prozessen, die als linearer Prädiktor in die Wahrscheinlichkeiten eingehen. Es soll hier systematisch untersucht werden, wie die Parameterfunktion in dem linearen Prädiktor geschätzt werden kann und wie das asymptotische Verhalten des Schätzers aussieht, um damit weitere statistische Analysen durchzuführen. Diese Modelle spielen auch in der Biostatistik eine Rolle. Als nächstes stellt sich die Frage, wie man die sogenannte Scorefunktion wirklich zu wählen hat, d.h., das statistische Problem befaßt sich mit der nichtparametrischen Schätzung dieser Funktion bei simultaner Schätzung der Parameterfunktion. Auf der statistischen Seite sind im nächsten Schritt nicht nur Modelle von Interesse, die als abhängige Variable eine reelle Größe haben, sondern wo die Zielgröße eine Funktion ist. Diese Fragen sollen in verschiedenen Projekten angegangen werden. Bei vielen Datensätzen aus der Finanzwelt muß zuerst eine dynamische Komponente entfernt werden. Dies wird meist mit GARCH-Modellen versucht, obwohl man weiß, daß dieser Ansatz nicht immer zu den Daten paßt. Systematische Anpassungstests sind unseres Wissens noch nicht vorhanden. Darauf aufbauend sollen Modelle mit nichtparametrischer Volatilitätsfunktion untersucht werden.In zeitkontinuierlichen Daten sollen äußere Einflüsse mit Hilfe der Kovarianzstruktur und funktionaler Datenanalyse diskriminiert werden.

M.2.2 Räumliche Statistik

In diesem Teilprojekt sollen Methoden entwickelt werden, umstochastische Modelle für dynamische bzw. bewertete zufällige Mengen an räumliche, d.h. ortsaufgelöste (Bild-)Daten über finanz- bzw. versicherungstechnische Sachverhalte anzupassen. Weil die Daten dabei typischerweise nur durch punktuelle Messungen erhoben werden können, müssen die Daten oftmals zunächst vorverarbeitet werden, beispielsweise durch Extrapolation mit Kriging-Techniken. Erst dadurch wird eine flächig- bzw. räumlich-kontinuierliche Beschreibung der Struktureigenschaften der Daten möglich, die dann stochastisch-geometrisch modelliert werden können. Ein zusätzliches Problem besteht darin, daß die Daten in vielen Fällen deutlich anisotrop sind, d.h., richtungsabhängige Kovariate aufweisen. Die statistische Auswertung der extrapolierten Bilddaten soll anhand extrahierter quantitativer Bildcharakteristiken erfolgen. Dabei soll eine (möglichst kleine) Anzahl von morphologischen Bildcharakteristiken spezifiziert werden, die geeignet sind, die Modellparameter zuverlässig zu schätzen und die wesentlichen strukturellen Eigenschaften der beobachteten Bilddaten zu beschreiben. Hierfür bieten sich beispielsweise die Minkowski-Funktionale von bewerteten zufälligen Mengen an (Flächen- bzw. Volumenanteile der einzelnen Phasen, spezifische Randlänge bzw. spezifische Oberfläche von Phasenkombinationen, u.a.). Darüber hinaus sollen die Kenngrößen weiterer morphologischer Funktionen (zum Beispiel von Kontaktverteilungsfunktionen) betrachtet werden. Und es sollen in diesem Zusammenhang auch Lösungsansätze für Klassifikationsprobleme mit Hilfe von asymptotischen Tests bzw. Simulationstests entwickelt werden.

Seitenanfang

M.3. Stochastische Steuerungen und Optimierung

In diesem Forschungsschwerpunkt werden stochastische Optimierungsprobleme untersucht. Die Steuerungen basieren auf stochastischen Prozessen mit stetigem Zeitparameter, z.B. Diffusionen, Lévy-Prozesse oder stückweise deterministische Markov-Prozesse. Wichtige Fragestellungen betreffen Existenz und Konstruktion von optimalen Steuerungen. Beide Fragestellungen werden mit Hilfe von stochastischen Maximumprinzipien, der Hamilton-Jacobi-Bellman-Gleichung oder der Martingalmethode analysiert. Insbesondere wollen wir Fragestellungen aus der Portfolio-Optimierung untersuchen. Dynamische Portfolioprobleme erfordern eine genaue Modellierung der zugrundeliegenden stochastischen Prozesse und auch der Informationsstruktur. Es sollen Vermögensprozesse mit Sprüngen zugelassen und verschiedene Zielkriterien untersucht werden: Benchmark-Optimierung und risikosensitive Nutzenmaximierung. Insbesondere sollen auch spieltheoretische Ansätze verfolgt werden, wobei vor allem Differentialspiele eine wichtige Rolle spielen. Von großem Interesse sind auch Anlageprobleme mit partieller Information oder mit Insider-Wissen. Solche Probleme treten auf, wenn z.B. die Driftrate oder die Sprunghöhe nicht vollständig bekannt sind. Mit Hilfe statistischer Methoden (z. B. Kalman-Filter, Bayes-Verfahren) sollen diese Portfolioprobleme analysiert werden. Bei Insider-Problemen treten Vergrößerungen von Filtrationen auf, die auf tiefliegende Fragestellungen in der stochastischen Analysis führen. Immer dann, wenn geschlossene Lösungen nicht existieren, ist man auf numerische Lösungsverfahren für die entsprechenden Optimierungsprobleme angewiesen. Deren Entwicklung und Umsetzung wird in enger Kooperation mit M.6 erarbeitet.

Seitenanfang

M.4 Partielle Differentialgleichungen und Funktionalanalysis

Zahlreiche Modelle in Physik, Technik und Wirtschaftsmathematik werden in der Form von partiellen Differentialgleichungen formuliert. Dabei liefert die Funktionalanalysis wichtige Methoden und Strukturen. Eine große Problemklasse sind linear parabolische und elliptische Gleichungen zweiter Ordnung. Wichtige Fragestellungen betreffen Asymptotik, Regularität, Störungenstheorie und Spektraltheorie. Auch in der Wirtschaftsmathematik tauchen in der Modellierung Gleichungen diesen Typs auf. Sie sind aber typischerweise degeneriert, wie etwa die Black-Scholes Gleichung.

M.4.1 Evolutionsgleichungen: Asymptotik und Regularität

Ziel dieses Projektes ist es, elliptische Operatoren der Form mit meßbaren Koeffizienten zu untersuchen. Dabei werden verschiedene Randbedingungen auf einem Gebiet betrachtet. Spektraltheoretische Eigenschaften sollen studiert werden und die zugehörige parabolische Gleichung soll untersucht werden. Sie beschreibt z.B. Diffusionsprozesse, taucht aber auch bei der Bewertung von Portfolios auf. Von großer Bedeutung sind Gaußsche Abschätzungen. Zum Beispiel dienten sie Nash zum Beweis seines berühmten Satzes über die Stetigkeit der schwachen Lösungen. Sie haben aber weitere Konsequenzen für Regularität und damit für die Lösung nicht-linearer Gleichungen und numerisches Lösen. Unbekannt sind solche Abschätzungen bisher für Robinrandbedingungen.

M.4.2 Partielle Differentialgleichungen in der Finanzmathematik

Es gibt eine ganze Reihe von elliptischen Gleichungen, die die Bewertung eines Portfolios modellieren. Auch hier geht es um Regularitätseigenschaften, die z.B. für die Numerik wichtig sind. Auch das zeitliche asymptotische Verhalten soll untersucht werden. Eine besondere Schwierigkeit ist, daß die Koeffizienten i.a. degeneriert sind. Von besonderem Interesse sind neuere funktionalanalytische Ansätze.

Seitenanfang

M.5 Finanzmathematische Modellierung und Analyse

Finanzmathematische Forschung hat die Verbesserung des Verständnisses der Entwicklungen an Finanzmärkten durch Formulierung mathematischer Modelle zum Ziel. Insbesondere sollen neue effizientere Methoden zur Preisfindung und zum Hedging (Absicherung) komplexer Finanzderivate gefunden werden, Anlageentscheidungen und das Management von Wertpapierportfolios verbessert werden sowie das Risiko von Finanzpositionen detaillierter verstanden werden. Die benötigten mathematischen Techniken kommen aus einer Vielzahl von Gebieten der angewandten und reinen Mathematik wie z.B. der Stochastik, Statistik, stochastischen Analysis, Numerik, Analysis, (partiellen) Differentialgleichungen und Funktionalanalysis.

M.5.1 Bewertungsprobleme

In diesem Teilprojekt sollen vor allem Kreditderivate und Asset-backed Securities, insbesondere Colleralized Debt Obligation (CDOs) bewertet werden und Hedging Strategien zur Risikokontrolle entwickelt werden. Weiterhin sollen Versicherungsverträge (Portfolios von Versicherern) mit finanzmathematischen Methoden analysiert werden und Hedgingstrategien für Versicherungsunternehmen entwickelt werden. Eine weitere Problemstellung ist Bewertung und Hedging von Derivaten in allgemeinen semi-parametrischen Modellen, in denen Preisentwicklungen von Wertpapieren als Lévy Prozesse modelliert werden. In allen Fällen führt die Komplexität der Fragestellungen zu Modellen unvollständiger Finanzmärkte, d.h. nicht-eindeutigen Martingalmaßen und nicht-vollständig hedgbaren Risiken. Ein Ziel des Teilprojekts wird es sein Bewertungsprinzipien und optimale (d.h. bestmöglich im Sinne eines vorgegebenen Kriteriums) Hedginstrategien für solche Situationen zu entwickeln.

M.5.2 Risiko-Management, Regulatorische Aspekte

Im Rahmen dieses Teilprojektes steht die Analyse und Steuerung von Portfolios im Vordergrund. Als eine zentrale Fragestellung betrachten wir die Modellierung von Portfolios kreditrisikobehafteter Wertpapiere, wobei die empirische Analyse der Steuergrössen (Modellparameter) eine wichtige Rolle spielt. Wesentliche Aspekte bei der Modellierung sind Design von Ratingsystemen, realistische Abbildung von Abhängigkeitsstrukturen, Schätzung des Loss-given-Default und Quantifizierung individueller Risikokomponenten im Zusammenhang mit der Analyse von Credit Spreads. Diese Steuergrössen sollen insbesondere auch empirisch analysiert werden. Z.B. werden Ratings bisher meist auf ihre Prognosekraft und Vorhersagbarkeit analysiert. Was fehlt, sind strukturelle Analysen des zugrundeliegenden Entscheidungsprozesses. Im Bereich Kredit-Scoring im Zusammenhang mit dem Design von Rating Verfahren bieten sich verschiedene statistische Verfahren an. Zu den offenen Fragen zählen geeignete Bewertungsmaße für Scoring-Verfahren, der Umgang mit Datenproblemen oder die Notwendigkeit qualitativer Informationen. Ein Ansatzpunkt hierfür ist die Verwendung bayesianischer Verfahren, insbesondere um Probleme der Datenknappheit zu mildern. Zur Schätzung von Abhängigkeitsstrukturen müssen, wie in M.1.2 angesprochen, Techniken der Extremwerttheorie und Copulaschätzung erweitert und verfeinert werden. Die empirische Analyse von Credit Spreads beinhaltet die Validierung und Analyse struktureller Default-Modelle (Merton-Modelle). Mittels solcher Modelle kann die Bewertung von verschiedenen kreditrisikoabhängigen Wertpapieren eines Underlyings (etwa eines Unternehmens) auf Konsistenz (Arbitragefreiheit) untersucht werden und das spezifische, nicht-diversifizierbare Risiko von Unternehmen analysiert werden Weiterhin sollen Modelle der Portfoliosteuerung zum Risikomanagement (wie CreditMetrics, CreditRisk+) analysiert werden. Vielfach ist noch ungeklärt, ob diese Modelle adäquat sind, wie sie parametrisiert werden sollen, und wie sie in den Entscheidungsprozeß integriert werden sollen. Dies gilt nicht nur für Risikoarten, die erst in jüngerer Zeit in den Mittelpunkt des Interesses geraten sind (Kreditrisiken, operationale Risiken, Ertragsrisiken), sondern auch für Marktrisiken. Solche regulatorische Aspekte der Fragestellung sind Mittelpunkt der gegenwärtigen Arbeit des Basel Kommitee und werden im Rahmen des Projekts in Zusammenarbeit mit der BuBa und dem BaFin untersucht. Eine weitere Problemstellung ist die Analyse von Asset-Liability Modellen. Hierbei sollen allgemeine Klassen von stochastischen Prozessen (wie Semi-Markov Prozesse, Lévy Prozesse), die neue Bewertungs- und Hedgingmethoden (aus M.5.1) erfordern, als Grundlage der Modellierung verwendet werden. Optimale Portfolio Allokationen müssen dann im Rahmen stochastischer Kontrollprobleme analysiert werden. Diese führen typischerweise auf Gleichungen vom Hamilton-Jacobi-Bellman Typ oder (unter Verwendung des Martingalansatzes) auf nicht-lineare Integro-Differential Gleichungen. Zur numerischen Umsetzung sollen neben den im Rahmen von Teilprojekt M.1.1 entwickelten Simulationsverfahren auch Methoden aus M.6 genutzt werden.

Seitenanfang

M.6 Numerische Analysis und Simulation

Auch wenn in einigen Fällen explizite Lösungen für Modellgleichungen der Wirtschaftsmathematik (z.B. Black-Scholes-Gleichungen in der einfachsten Form) bekannt sind, nimmt die Bedeutung der numerischen Analyse und Simulation in ökonomischen Untersuchungen enorm zu. J.P. Lions drückte es so aus: ``Numerischer Sachverstand wird in der Wirtschaft dringend benötigt''. Ziel dieses Forschungsschwerpunktes ist nicht die reine Anwendung bekannter numerischer Verfahren auf ökonomische Probleme, sondern Konstruktion, Analyse und Umsetzung neuartiger, optimal auf die Problemstellungen angepaßter Verfahren.

M.6.1 Numerische Methoden zur Lösung von Operatorgleichungen

In diesem Teilprojekt sollen vor allem die aus der Modellierung entstehenden Operatorgleichungen mit Hilfe modernen Multiskalen- und Wavelet-Methoden numerisch gelöst werden. Hierzu werden zunächst entsprechende Verfahren konstruiert und analysiert (Konvergenz, Konvergenzordnung, Aufwand, Effizienz), im Weiteren dann numerische Experimente durchgeführt. Wie oben (vgl. A.1-A.5) beschrieben, treten u.a. Operatorgleichungen in Form von elliptischen partiellen Differentialgleichungen, Integral- und Integro-Differentialgleichungen sowie Variationsungleichungen auf. Ebenso spielen diskrete und kontinuierliche Optimierungsprobleme eine wichtige Rolle. Bislang werden in der Literatur Finanzderivate hauptsächlich in Abhängigkeit eines Basiswertes betrachtet. Bei komplexeren Produkten und Portfolios ist dies nicht mehr gegeben. Wir wollen entsprechende numerische Verfahren für höheredimensionale Fälle entwickeln und umsetzen. Insbesondere sollen Bewertungsprobleme mit komplizierter Abhängigkeitsstruktur bezüglich mehrerer Basiswerte numerisch behandelt werden.

M.6.2 Numerische Methoden in der Signal- und Bildverarbeitung

Zahlreiche Themenbereiche des Graduiertenkollegs führen auf das Problem der Analyse von Signalen oder Bildern. Dies ist z.B. bei der Zeitreihenanalyse von Finanz(markt)daten oder der Untersuchung geographischer Einflüsse bei Finanz- oder Versicherungsprodukten der Fall. Anforderungen an die Analyse können u.a. Entrauschung, Muster- und Trenderkennung, Komprimierung oder Merkmals-Extraktion sein. Da diese Datenanalyse häufig mit einer weiteren algorithmischen Verarbeitung gekoppelt ist (z.B. mit partiellen Differentialgleichungen), ist eine Verbindung von Signal- und Bildverarbeitung mit der numerischen Lösung der entstehenden Operatorgleichungen (s. M.6.1) sinnvoll. Wir wollen daher Wavelet-Konzepte in den genannten Problemfeldern einsetzen um damit einen durchgehenden algorithmischen Zugang zu erarbeiten, der auch eine rigorose Analysis (Konvergenz, Effizienz) erlaubt.

Seitenanfang

I.Methoden der Software-Entwicklung und des Software-Qualitätsmanagements

Die Forschungsidee des Graduiertenkollegs kann nur mit modernen und effizienten Methoden des Software Engineering umgesetzt werden. Daher ist Prof. Dr. Schweiggert, Leiter der Abteilung Angewandte Informationsverarbeitung in der Fakultät für Mathematik und Wirtschaftswissenschaften sowie persönlich kooptiert in die Fakultät für Informatik, am Graduiertenkolleg beteiligt. Die Umsetzung mathematischer Verfahren muß Methoden der Objektorientierung mit dem Ziel der Wiederverwendbarkeit, der Flexibilität (z.B. durch Nutzung des Plugin-Konzeptes), der Prüfbarkeit und vor allem der späteren Pflegbarkeit effizient nutzen. Dies fokussiert nicht nur auf die Software als Produkt, sondern auch und vor allem auf den Prozeß der Software-Entwicklung und Software-Pflege.

I.1 Objektorientierte Software-Bibliothek für adaptive numerische Verfahren

Die in M.6 beschriebenen adaptiven Wavelet-Verfahren erfordern vollkommen neuartige algorithmische Ingredienzen und andere Realisierungskonzepte als bei klassischen (adaptiven) Verfahren. Herkömmliche Matrix-Vektor-Strukturen sind in diesen Anwendungen nicht hilfreich. Ziel ist es daher, eine objekt-orientierte Software-Bibliothek zu erstellen, die einerseits die genannten adaptiven Verfahren in effizienter Weise realisiert und damit echte Vergleiche zu konventionellen adaptiven Verfahren ermöglicht und andererseits so strukturiert ist, daß sie in Forschung und Lehre einfach eingesetzt und erweitert werden kann.

I.2 Qualitätsverbesserung wissenschaftlicher Software

Wissenschaftliche Softwareentwicklung, d.h. Softwareentwicklung, die im wissenschaftlichen Umfeld stattfindet, ist in hohem Maße von Veränderung betroffen. Kurze Projektzugehörigkeit wegen der geringen Dauer von Promotionen und Diplomarbeiten, starke Heterogenität des Informatik- und Software-Engineering-Wissens von Teammitgliedern - die typischerweise keine Informatiker sind - und die schnelle Änderung von Anforderungen aufgrund neuer Forschungsergebnisse sind alltägliche Probleme, mit denen man bei der Entwicklung wissenschaftlicher Software konfrontiert ist. Ziel ist die (Weiter-)Entwicklung und Kombination von Techniken, welche die Qualität damit erstellter wissenschaftlicher Software erhöhen, sowie deren Erprobung und Einsatz im Rahmen von Promotionen und Diplomarbeiten.

Seitenanfang