Simple Science

Hochmoderne Wissenschaft einfach erklärt

# Quantitatives Finanzwesen# Ökonometrie# Mathematische Finanzwissenschaft

Schätzung der Volatilität in Finanzmärkten

Ein neuartiger Ansatz zur Parameterschätzung in der Volatilitätsmodellierung mit Hilfe von zusammengesetzter Likelihood.

― 6 min Lesedauer


VolatilitätsmodellierungVolatilitätsmodellierungin Finanzenfinanziellen Volatilitätsparametern.Neue Methoden zur Schätzung von
Inhaltsverzeichnis

In der Finanzwelt suchen Forscher ständig nach besseren Wegen, um Veränderungen in der Volatilität zu verstehen, also wie stark der Preis eines Vermögenswerts über die Zeit schwanken kann. Eine der bekanntesten Methoden in diesem Bereich ist die Verwendung von stationären Gauss-Prozessen. Diese Prozesse modellieren Zeitreihendaten, deren statistische Eigenschaften sich über die Zeit nicht ändern. Eine grosse Herausforderung besteht darin, die Parameter genau zu schätzen, insbesondere wenn es um Hochfrequenzdaten geht, wie sie in den Kryptowährungs-Märkten vorkommen.

In diesem Artikel wird die Entwicklung eines Rahmens zur Schätzung dieser Parameter mit einer Methode namens zusammengesetzte Likelihood-Schätzung erläutert. Wir erklären, wie diese Methode funktioniert, insbesondere für zwei Modelle: den fraktionalen Ornstein-Uhlenbeck (fOU)-Prozess und einen Cauchy-Klassenprozess. Durch Simulationen und echte Daten werden wir die Stärken und Schwächen der zusammengesetzten Likelihood-Methode im Vergleich zu traditionellen Schätzmethoden untersuchen.

Bedeutung der Volatilitätsmodellierung

Volatilität ist ein entscheidendes Merkmal von Finanzrenditen. Die realisierte Varianz, ein Mass für Volatilität, zeigt oft eine starke Persistenz, was darauf hindeutet, dass vergangene Hochvolatilitätsperioden wahrscheinlich von zukünftigen Hochvolatilitätsperioden gefolgt werden. Forscher haben beobachtet, dass diese Persistenz mit Hilfe von Langzeitgedächtnisprozessen modelliert werden kann, die langsam abfallende Autokorrelationen aufweisen. Neueste Studien legen nahe, dass Volatilität sich anders verhält als unter Standardmodellen erwartet, was zur Hypothese führt, dass sie komplexere Muster aufweisen könnte, die durch fraktionale Browniansche Bewegung beschrieben werden.

Der fraktionale Ornstein-Uhlenbeck-Prozess

Der fOU-Prozess ist eine Möglichkeit, Volatilität zu modellieren, die seine Rauheit und Langzeitgedächtnis berücksichtigt. Er ersetzt die standardmässige Brownsche Bewegung durch fraktionale Brownsche Bewegung und ermöglicht erratischere Preisbewegungen, insbesondere über kurze Zeiträume. Obwohl die Theorie ansprechend ist, kann die Schätzung der Parameter des fOU-Prozesses ziemlich schwierig sein. Vollständige maximale Likelihood-Schätzung (MLE) ist oft unpraktisch aufgrund rechnerischer Herausforderungen, besonders bei grossen Datensätzen.

Ansatz der zusammengesetzten Likelihood

Um die oben genannte Herausforderung anzugehen, schlagen wir vor, die zusammengesetzte Likelihood-Schätzung zu verwenden. Diese Methode vereinfacht den Schätzprozess, indem sie kleinere Sub-Modelle nutzt, was sie rechnerisch machbar macht, selbst bei grossen Stichprobengrössen. Obwohl sie im Vergleich zu vollständiger MLE etwas an Effizienz verlieren kann, ist sie oft einfacher in der Anwendung, insbesondere bei komplexen Modellen wie dem fOU-Prozess.

Cauchy-Klassenprozess

Im Gegensatz zum fOU-Prozess ermöglicht die Cauchy-Klasse stationärer Gauss-Prozesse eine klarere Trennung zwischen kurzfristigen und langfristigen Abhängigkeiten. Das bedeutet, dass die Cauchy-Klasse sowohl Rauheit als auch Langzeitgedächtnis-Effekte gleichzeitig berücksichtigen kann. Diese Flexibilität macht sie zu einem mächtigen Werkzeug zur Modellierung von Volatilität in finanziellen Zeitreihen.

Monte-Carlo-Simulationsstudie

Um die Leistung unseres Rahmens zur Schätzung der zusammengesetzten Likelihood im Vergleich zu traditionellen Methoden zu bewerten, haben wir eine Monte-Carlo-Simulationsstudie durchgeführt. Wir haben sowohl den fOU-Prozess als auch den Cauchy-Klassenprozess unter verschiedenen Bedingungen getestet. Unsere Ergebnisse zeigen, dass die Methode der zusammengesetzten Likelihood gut abschneidet und Parameter-Schätzungen liefert, die im Allgemeinen genau und robust sind, insbesondere bei kleineren Stichproben.

Empirische Anwendung auf Kryptowährungsdaten

Wir haben unseren Rahmen zur zusammengesetzten Likelihood auch auf Hochfrequenzhandelsdaten aus dem Kryptowährungsmarkt angewendet. Dieser Markt wurde aufgrund seiner kontinuierlichen Handelsnatur gewählt, die eine klare Analyse von Volatilitätsmustern ohne Unterbrechungen ermöglicht, wie sie in anderen Vermögensklassen auftreten können. Unsere Ergebnisse deuten darauf hin, dass die Log-Spot-Varianz auf den Kryptowährungsmärkten sowohl Rauheit als auch Langzeitgedächtnis aufweist, die wesentliche Merkmale sind, um die Dynamik der Volatilität genau zu beschreiben.

Fazit und zukünftige Richtungen

Die Methode der zusammengesetzten Likelihood bietet eine brauchbare Alternative zur Schätzung von Parametern in stationären Gauss-Prozessen, insbesondere wenn traditionelle Methoden unhandlich werden. Die Analyse sowohl synthetischer als auch empirischer Daten unterstützt die Verwendung dieser Methode zur Erfassung der Komplexität der Volatilität in Finanzmärkten. Zukünftige Forschungen könnten sich darauf konzentrieren, diese Modelle weiter zu verfeinern und zusätzliche Ansätze zur Modellierung des latenten Volatilitätsprozesses zu erkunden.

Theoretischer Rahmen

In diesem Abschnitt geben wir einen Überblick über stationäre Gauss-Prozesse und das Konzept der zusammengesetzten Likelihood-Schätzung.

Stationäre Gauss-Prozesse

Wir definieren unseren stationären Gauss-Prozess als einen mit einem Mittelwert, der sich über die Zeit nicht ändert, und einer Varianz, die konstant bleibt. Die Autokovarianzfunktion hilft, die Abhängigkeiten innerhalb der Daten bei verschiedenen Zeitverzögerungen zu beschreiben. Ein entscheidender Aspekt dieser Prozesse ist die Ergodizität, die es uns ermöglicht, Gesetze der grossen Zahlen auf unsere Schätzungen anzuwenden.

Zusammengesetzte Likelihood

Die zusammengesetzte Likelihood-Schätzung beinhaltet die Maximierung eines Produkts von Likelihoods, die aus kleineren, handhabbaren Ereignissen stammen, anstatt das gesamte Datenset auf einmal zu betrachten. Diese Strategie reduziert die Komplexität, die mit traditionellen MLE-Methoden verbunden ist. Obwohl sie möglicherweise zu einer Fehl-Spezifikation des Modells führen kann, bietet sie einen praktischeren Ansatz zur Schätzung von Parametern in stationären Prozessen.

Asymptotische Theorie für zusammengesetzte Likelihood

Wir betrachten auch die theoretischen Grundlagen der zusammengesetzten Likelihood-Schätzung. Wir zeigen, dass unter bestimmten Bedingungen die Schätzungen mit zunehmender Stichprobengrösse gegen die wahren Parameterwerte konvergieren. Diese theoretische Grundlage gibt Vertrauen in die Verwendung der zusammengesetzten Likelihood für praktische Anwendungen.

Parameter des fOU-Prozesses

Wir gehen tiefer auf die Spezifika des fOU-Prozesses ein und heben seine einzigartigen Eigenschaften sowie die Herausforderungen bei der Schätzung seiner Parameter hervor. Wir diskutieren zudem, wie der Hurst-Exponenten, der die Rauheit des Prozesses angibt, eine entscheidende Rolle beim Verständnis seines Verhaltens spielt.

Parameter der Cauchy-Klasse

Wir erklären, wie der Cauchy-Klassenprozess die kurzfristigen und langfristigen Abhängigkeiten durch separate Parameter differenziert. Diese Entkopplung ermöglicht ein reichhaltigeres Modellieren von Volatilität in finanziellen Datensätzen.

Simulationsergebnisse und Analyse

In unserer Monte-Carlo-Simulation verwendeten wir verschiedene Stichprobengrössen und Einstellungen, um die Leistung unseres Schätzers der zusammengesetzten Likelihood zu bewerten. Wir verglichen die Ergebnisse mit traditionellen Momenten-Schätzern, um Schlussfolgerungen über Effizienz und Genauigkeit zu ziehen.

Analyse von Hochfrequenzdaten

Wir erläutern die Methoden, die wir zur Analyse von Hochfrequenzdaten im Kryptowährungsmarkt verwendet haben. Dieser Abschnitt beschreibt, wie wir die Daten verarbeitet und gefiltert haben, um sicherzustellen, dass unsere Schätzungen genau und reflektierend für das tatsächliche Marktverhalten sind.

Robustheit der Ergebnisse

Unsere Ergebnisse zeigen, dass der Ansatz der zusammengesetzten Likelihood konsistente und zuverlässige Schätzungen liefert. Wir besprechen, wie dieses Ergebnis die Anwendbarkeit der Methode unter verschiedenen Marktbedingungen und Datenmerkmalen unterstützt.

Zukünftige Forschungsrichtungen

In die Zukunft blickend schlagen wir potenzielle Wege für weitere Forschungen vor, insbesondere um die Robustheit der Schätzer gegen Marktgeräusche zu verbessern und die Interpretierbarkeit der Ergebnisse über verschiedene Vermögensklassen hinweg zu fördern.

Zusammenfassung

Zusammenfassend präsentiert unsere Forschung eine umfassende Erkundung der zusammengesetzten Likelihood-Schätzung für stationäre Gauss-Prozesse, insbesondere im Kontext der finanziellen Volatilität. Die diskutierten Methoden und Modelle bieten bedeutende Einblicke und praktische Werkzeuge für Forscher und Praktiker im Bereich der finanziellen Ökonometrie.

Mehr von den Autoren

Ähnliche Artikel