Schätzung der Volatilität in Finanzmärkten
Ein neuartiger Ansatz zur Parameterschätzung in der Volatilitätsmodellierung mit Hilfe von zusammengesetzter Likelihood.
― 6 min Lesedauer
Inhaltsverzeichnis
- Bedeutung der Volatilitätsmodellierung
- Der fraktionale Ornstein-Uhlenbeck-Prozess
- Ansatz der zusammengesetzten Likelihood
- Cauchy-Klassenprozess
- Monte-Carlo-Simulationsstudie
- Empirische Anwendung auf Kryptowährungsdaten
- Fazit und zukünftige Richtungen
- Theoretischer Rahmen
- Stationäre Gauss-Prozesse
- Zusammengesetzte Likelihood
- Asymptotische Theorie für zusammengesetzte Likelihood
- Parameter des fOU-Prozesses
- Parameter der Cauchy-Klasse
- Simulationsergebnisse und Analyse
- Analyse von Hochfrequenzdaten
- Robustheit der Ergebnisse
- Zukünftige Forschungsrichtungen
- Zusammenfassung
- Originalquelle
- Referenz Links
In der Finanzwelt suchen Forscher ständig nach besseren Wegen, um Veränderungen in der Volatilität zu verstehen, also wie stark der Preis eines Vermögenswerts über die Zeit schwanken kann. Eine der bekanntesten Methoden in diesem Bereich ist die Verwendung von stationären Gauss-Prozessen. Diese Prozesse modellieren Zeitreihendaten, deren statistische Eigenschaften sich über die Zeit nicht ändern. Eine grosse Herausforderung besteht darin, die Parameter genau zu schätzen, insbesondere wenn es um Hochfrequenzdaten geht, wie sie in den Kryptowährungs-Märkten vorkommen.
In diesem Artikel wird die Entwicklung eines Rahmens zur Schätzung dieser Parameter mit einer Methode namens zusammengesetzte Likelihood-Schätzung erläutert. Wir erklären, wie diese Methode funktioniert, insbesondere für zwei Modelle: den fraktionalen Ornstein-Uhlenbeck (fOU)-Prozess und einen Cauchy-Klassenprozess. Durch Simulationen und echte Daten werden wir die Stärken und Schwächen der zusammengesetzten Likelihood-Methode im Vergleich zu traditionellen Schätzmethoden untersuchen.
Bedeutung der Volatilitätsmodellierung
Volatilität ist ein entscheidendes Merkmal von Finanzrenditen. Die realisierte Varianz, ein Mass für Volatilität, zeigt oft eine starke Persistenz, was darauf hindeutet, dass vergangene Hochvolatilitätsperioden wahrscheinlich von zukünftigen Hochvolatilitätsperioden gefolgt werden. Forscher haben beobachtet, dass diese Persistenz mit Hilfe von Langzeitgedächtnisprozessen modelliert werden kann, die langsam abfallende Autokorrelationen aufweisen. Neueste Studien legen nahe, dass Volatilität sich anders verhält als unter Standardmodellen erwartet, was zur Hypothese führt, dass sie komplexere Muster aufweisen könnte, die durch fraktionale Browniansche Bewegung beschrieben werden.
Der fraktionale Ornstein-Uhlenbeck-Prozess
Der fOU-Prozess ist eine Möglichkeit, Volatilität zu modellieren, die seine Rauheit und Langzeitgedächtnis berücksichtigt. Er ersetzt die standardmässige Brownsche Bewegung durch fraktionale Brownsche Bewegung und ermöglicht erratischere Preisbewegungen, insbesondere über kurze Zeiträume. Obwohl die Theorie ansprechend ist, kann die Schätzung der Parameter des fOU-Prozesses ziemlich schwierig sein. Vollständige maximale Likelihood-Schätzung (MLE) ist oft unpraktisch aufgrund rechnerischer Herausforderungen, besonders bei grossen Datensätzen.
Ansatz der zusammengesetzten Likelihood
Um die oben genannte Herausforderung anzugehen, schlagen wir vor, die zusammengesetzte Likelihood-Schätzung zu verwenden. Diese Methode vereinfacht den Schätzprozess, indem sie kleinere Sub-Modelle nutzt, was sie rechnerisch machbar macht, selbst bei grossen Stichprobengrössen. Obwohl sie im Vergleich zu vollständiger MLE etwas an Effizienz verlieren kann, ist sie oft einfacher in der Anwendung, insbesondere bei komplexen Modellen wie dem fOU-Prozess.
Cauchy-Klassenprozess
Im Gegensatz zum fOU-Prozess ermöglicht die Cauchy-Klasse stationärer Gauss-Prozesse eine klarere Trennung zwischen kurzfristigen und langfristigen Abhängigkeiten. Das bedeutet, dass die Cauchy-Klasse sowohl Rauheit als auch Langzeitgedächtnis-Effekte gleichzeitig berücksichtigen kann. Diese Flexibilität macht sie zu einem mächtigen Werkzeug zur Modellierung von Volatilität in finanziellen Zeitreihen.
Monte-Carlo-Simulationsstudie
Um die Leistung unseres Rahmens zur Schätzung der zusammengesetzten Likelihood im Vergleich zu traditionellen Methoden zu bewerten, haben wir eine Monte-Carlo-Simulationsstudie durchgeführt. Wir haben sowohl den fOU-Prozess als auch den Cauchy-Klassenprozess unter verschiedenen Bedingungen getestet. Unsere Ergebnisse zeigen, dass die Methode der zusammengesetzten Likelihood gut abschneidet und Parameter-Schätzungen liefert, die im Allgemeinen genau und robust sind, insbesondere bei kleineren Stichproben.
Empirische Anwendung auf Kryptowährungsdaten
Wir haben unseren Rahmen zur zusammengesetzten Likelihood auch auf Hochfrequenzhandelsdaten aus dem Kryptowährungsmarkt angewendet. Dieser Markt wurde aufgrund seiner kontinuierlichen Handelsnatur gewählt, die eine klare Analyse von Volatilitätsmustern ohne Unterbrechungen ermöglicht, wie sie in anderen Vermögensklassen auftreten können. Unsere Ergebnisse deuten darauf hin, dass die Log-Spot-Varianz auf den Kryptowährungsmärkten sowohl Rauheit als auch Langzeitgedächtnis aufweist, die wesentliche Merkmale sind, um die Dynamik der Volatilität genau zu beschreiben.
Fazit und zukünftige Richtungen
Die Methode der zusammengesetzten Likelihood bietet eine brauchbare Alternative zur Schätzung von Parametern in stationären Gauss-Prozessen, insbesondere wenn traditionelle Methoden unhandlich werden. Die Analyse sowohl synthetischer als auch empirischer Daten unterstützt die Verwendung dieser Methode zur Erfassung der Komplexität der Volatilität in Finanzmärkten. Zukünftige Forschungen könnten sich darauf konzentrieren, diese Modelle weiter zu verfeinern und zusätzliche Ansätze zur Modellierung des latenten Volatilitätsprozesses zu erkunden.
Theoretischer Rahmen
In diesem Abschnitt geben wir einen Überblick über stationäre Gauss-Prozesse und das Konzept der zusammengesetzten Likelihood-Schätzung.
Stationäre Gauss-Prozesse
Wir definieren unseren stationären Gauss-Prozess als einen mit einem Mittelwert, der sich über die Zeit nicht ändert, und einer Varianz, die konstant bleibt. Die Autokovarianzfunktion hilft, die Abhängigkeiten innerhalb der Daten bei verschiedenen Zeitverzögerungen zu beschreiben. Ein entscheidender Aspekt dieser Prozesse ist die Ergodizität, die es uns ermöglicht, Gesetze der grossen Zahlen auf unsere Schätzungen anzuwenden.
Zusammengesetzte Likelihood
Die zusammengesetzte Likelihood-Schätzung beinhaltet die Maximierung eines Produkts von Likelihoods, die aus kleineren, handhabbaren Ereignissen stammen, anstatt das gesamte Datenset auf einmal zu betrachten. Diese Strategie reduziert die Komplexität, die mit traditionellen MLE-Methoden verbunden ist. Obwohl sie möglicherweise zu einer Fehl-Spezifikation des Modells führen kann, bietet sie einen praktischeren Ansatz zur Schätzung von Parametern in stationären Prozessen.
Asymptotische Theorie für zusammengesetzte Likelihood
Wir betrachten auch die theoretischen Grundlagen der zusammengesetzten Likelihood-Schätzung. Wir zeigen, dass unter bestimmten Bedingungen die Schätzungen mit zunehmender Stichprobengrösse gegen die wahren Parameterwerte konvergieren. Diese theoretische Grundlage gibt Vertrauen in die Verwendung der zusammengesetzten Likelihood für praktische Anwendungen.
Parameter des fOU-Prozesses
Wir gehen tiefer auf die Spezifika des fOU-Prozesses ein und heben seine einzigartigen Eigenschaften sowie die Herausforderungen bei der Schätzung seiner Parameter hervor. Wir diskutieren zudem, wie der Hurst-Exponenten, der die Rauheit des Prozesses angibt, eine entscheidende Rolle beim Verständnis seines Verhaltens spielt.
Parameter der Cauchy-Klasse
Wir erklären, wie der Cauchy-Klassenprozess die kurzfristigen und langfristigen Abhängigkeiten durch separate Parameter differenziert. Diese Entkopplung ermöglicht ein reichhaltigeres Modellieren von Volatilität in finanziellen Datensätzen.
Simulationsergebnisse und Analyse
In unserer Monte-Carlo-Simulation verwendeten wir verschiedene Stichprobengrössen und Einstellungen, um die Leistung unseres Schätzers der zusammengesetzten Likelihood zu bewerten. Wir verglichen die Ergebnisse mit traditionellen Momenten-Schätzern, um Schlussfolgerungen über Effizienz und Genauigkeit zu ziehen.
Analyse von Hochfrequenzdaten
Wir erläutern die Methoden, die wir zur Analyse von Hochfrequenzdaten im Kryptowährungsmarkt verwendet haben. Dieser Abschnitt beschreibt, wie wir die Daten verarbeitet und gefiltert haben, um sicherzustellen, dass unsere Schätzungen genau und reflektierend für das tatsächliche Marktverhalten sind.
Robustheit der Ergebnisse
Unsere Ergebnisse zeigen, dass der Ansatz der zusammengesetzten Likelihood konsistente und zuverlässige Schätzungen liefert. Wir besprechen, wie dieses Ergebnis die Anwendbarkeit der Methode unter verschiedenen Marktbedingungen und Datenmerkmalen unterstützt.
Zukünftige Forschungsrichtungen
In die Zukunft blickend schlagen wir potenzielle Wege für weitere Forschungen vor, insbesondere um die Robustheit der Schätzer gegen Marktgeräusche zu verbessern und die Interpretierbarkeit der Ergebnisse über verschiedene Vermögensklassen hinweg zu fördern.
Zusammenfassung
Zusammenfassend präsentiert unsere Forschung eine umfassende Erkundung der zusammengesetzten Likelihood-Schätzung für stationäre Gauss-Prozesse, insbesondere im Kontext der finanziellen Volatilität. Die diskutierten Methoden und Modelle bieten bedeutende Einblicke und praktische Werkzeuge für Forscher und Praktiker im Bereich der finanziellen Ökonometrie.
Titel: Composite likelihood estimation of stationary Gaussian processes with a view toward stochastic volatility
Zusammenfassung: We develop a framework for composite likelihood inference of parametric continuous-time stationary Gaussian processes. We derive the asymptotic theory of the associated maximum composite likelihood estimator. We implement our approach on a pair of models that has been proposed to describe the random log-spot variance of financial asset returns. A simulation study shows that it delivers good performance in these settings and improves upon a method-of-moments estimation. In an application, we inspect the dynamic of an intraday measure of spot variance computed with high-frequency data from the cryptocurrency market. The empirical evidence supports a mechanism, where the short- and long-term correlation structure of stochastic volatility are decoupled in order to capture its properties at different time scales.
Autoren: Mikkel Bennedsen, Kim Christensen, Peter Christensen
Letzte Aktualisierung: 2024-03-19 00:00:00
Sprache: English
Quell-URL: https://arxiv.org/abs/2403.12653
Quell-PDF: https://arxiv.org/pdf/2403.12653
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an arxiv für die Nutzung seiner Open-Access-Interoperabilität.