Metadaten

Heidelberger Akademie der Wissenschaften [Hrsg.]
Jahrbuch ... / Heidelberger Akademie der Wissenschaften: Jahrbuch 2017 — 2018

DOI Kapitel:
C. Förderung des wissenschaftlichen Nachwuchses
DOI Kapitel:
II. Das WIN-Kolleg
DOI Kapitel:
Sechster Forschungsschwerpunkt„Messen und Verstehen der Welt durch die Wissenschaft“
DOI Kapitel:
3. Analyzing, Measuring and Forecasting Financial Risks by means of High-Frequency Data
DOI Seite / Zitierlink: 
https://doi.org/10.11588/diglit.55651#0299
Lizenz: In Copyright
Überblick
Faksimile
0.5
1 cm
facsimile
Vollansicht
OCR-Volltext
C. Förderung des wissenschaftlichen Nachwuchses

die Volatilität (durchschnittliche Schwankung), und erhalten eine Schätzung für
den VaR dann aus einer parametrischen Verteilungsannahme, welche sich insbe-
sondere für extreme Quantile als enorm wichtig herausstellt und somit der Gefahr
von einer gefährlichen Modellmissspezifikation bei Benutzung einer für die spezi-
elle Situation unpassenden Verteilungsfunktion unterliegt.
Ein alternativer Ansatz hierfür sind nichtparametrische (bzw semiparametri-
sche) Verfahren, welche ohne parametrische Verteilungsannahmen auskommen.
Eine solche Idee wurde in unserem ersten Forschungsprojekt implementiert, bei
dem man davon ausgeht, dass die logarithmischen Preise von Finanzprodukten
einem multifraktalen Prozess folgen. Dieser multifraktale Prozess entsteht aus der
Annahme einer intrinsische Handelszeit, d.h. einer Zeitdimension, die schneller
verstreicht, wenn die Handelsintensität hoch ist, und langsamer vergeht, wenn die
Handelsintensität gering ist. Fast die komplette Literatur im Gebiet des finanziel-
len Risikomanagements hat eine solche Verallgemeinerung der Handelszeit bisher
ignoriert. Durch diese fraktale Skalierungseigenschaft kann man die oben genann-
ten Risikomaße auf Basis von hochfrequenten Daten eines speziellen Handelstags
schätzen.
Hierfür benutzen wir sowohl Tick-Daten von Aktienkursen an der New York
Stock Exchange als auch Wechselkursdaten der Devisen Euro - US Dollar und Euro
- Pfund Sterling, welche speziell für dieses Projekt erworben wurden. Mit Hilfe
dieser Datensätze vergleichen wir die Genauigkeit der Schätzungen und Vorher-
sagen unseres Skalierungsmodells mit einigen klassischen Schätzmethoden für
den VaR and ES. Unsere Resultate zeigen, dass unsere neue Skalierungsmethode
eine höhere Vorhersagegenauigkeit für beide Datentypen hat. Diese Genauig-
keit wird durch ein Standardkriterium für Punktvorhersagen, durch sogenann-
te strictly consistent loss functions gemessen. Eine andere Methode zum Evaluieren
von Quantilen und des ES sind sogenannte Backtests, die hauptsächlich auf eine
korrekte Trefferquote und auf Unabhängigkeit dieser Treffer testen. Auch in Be-
zug auf Backtests schneidet unser Modell besser ab als die benutzten Standard-
methoden.
In einem zweiten Projekt mit Sebastian Bayer von der Universität Konstanz
modellieren wir die Risikomaße VaR und ES gemeinsam durch eine neue Re-
gressionsmethode, welche als eine Verallgemeinerung der Quantilsregression ge-
sehen werden kann. Diese Regression ermöglicht es den VaR (das Quantil) und
den ES einer abhängigen Variablen bezüglich erklärender Variablen zu modellie-
ren, in gleicher Weise wie die klassische Regressionstheorie den Eiwartungswert
einer abhängigen Variable gegeben erklärender Variablen modelliert. Wir schätzen
die zugehörigen Regressionsparameter durch minimieren einer speziellen Verlust-
funktion, eingeführt von Fissler und Ziegel (2016). Wir zeigen Konsistenz und
asymptotische Normalität der Parameterschätzer mit Hilfe der asymptotischen
Theorie zur M-Schätzung. Sowohl das Regressionsmodell mit der Methode der

300
 
Annotationen
© Heidelberger Akademie der Wissenschaften