Markt Magazin

istock.com/Bastian Weltjen

Risikomanagement: Volatilitätsberechnung mit KI  

Mittels verschiedener Modelle wird daher versucht, Volatilitätsentwicklungen zuverlässige Informationen zu entnehmen und für die Zukunft zu nutzen. Diese Volatilitätsmodelle reichen von einem einfachen empirischen Ansatz, der gleitende Durchschnitte nutzt, bis hin zu komplexeren Modellen, die auf autoregressiven Prognosen, heterogenen autoregressiven Modellen der realisierten Volatilität und vorausschauenden Messgrößen wie der impliziten Volatilität basieren.

Im Zuge der immer weiter fortschreitenden Entwicklung von Künstlicher Intelligenz können dabei Methoden, die auf Maschinellem Lernen (ML) basieren, eine entscheidende Rolle spielen. Indem man zwei dieser Methoden kombiniert, können verschiedene Volatilitätsziele parallel angepeilt werden. Die erste Methode basiert auf Deep Reinforcement Learning (DRL), unüberwachtem Lernen, während die zweite auf Gradient Boosting Decision Trees, einem Fall des überwachten, verstärkenden Lernens, (GBDT) beruht. DRL entstammt ursprünglich der Psychologie und der Kybernetik. Hierbei lernt ein Computerprogramm durch Interaktionen mit seiner Umwelt aus deren positiven oder negativen Reaktionen.

Regimewechsel bei der Volatilität werden berücksichtigt
GBDT arbeitet mit der sogenannten Gradientenverstärkung, eine wegen ihrer Schnelligkeit und hohen Genauigkeit beliebten Technik. Beide Modelle beruhen auf Methoden des Adaptiven Maschinellen Lernens (AML); im Bereich der Volatilitätsvorhersagen zielen sie darauf ab, die typischen Regimewechsel bei der Volatilität zu berücksichtigen. Dieser Anpassungsaspekt ist dem Reinforcement Learning inhärent. Beim überwachten Lernansatz des GBDT können mittels eines zusätzlichen Filterschritts künftige Regimewechsel berücksichtigt werden.

Schwankende Märkte, komplexes Marktgeschehen, wechselnde Volatilitätsintensität – welches Volatilitätsmodell ist am besten geeignet? Darüber hinaus stellt die inhärent hohe Korrelation zwischen diesen Volatilitätsmodellen, sowohl in Bezug auf die Vorhersagevariablen als auch auf die mit ihnen erzielbaren Ergebnisse, eine große Herausforderung dar. Sollte man für eigene Investmententscheidungen beide Modelle kombinieren? Und falls ja, wie?

Deep Reinforcement Learning hat Schwächen
Das Deep Reinforcement Learning scheint ein vielversprechendes Instrument zur Bewältigung von Regimewechseln und nicht linearen Entwicklungen in Volatilitätszeitreihen zu sein. Allerdings gibt es bei DRL mindestens zwei Probleme. Erstens kann DRL für Finanzmärkte problematisch sein, da dieses Instrument nur ein Szenario, nämlich das historische, wiedergibt. Zweitens funktioniert DRL nicht gut, wenn mehrere Merkmale verarbeitet werden sollen – und die Ergebnisse sind zudem schwer zu interpretieren.

Der Ansatz des überwachten Lernens hat den Vorteil, diese beiden Schwachstellen zu umgehen. Der Algorithmus GBDT ermöglicht eine hohe Interpretierbarkeit. Seine Struktur von aufeinander aufbauenden Entscheidungsbäumen ermöglicht, die Bedeutung einzelner Entscheidungsmerkmale zu berechnen. Außerdem ist GBDT auch bei kleinen Datensätzen effizient, selbst wenn die Anzahl der Merkmale im Vergleich zur Anzahl der Ereignisse hoch ist.

Um die Veränderungen im Modell besser zu erfassen, wird der überwachten Lernschicht eine adaptive Filterung des Merkmalsraums hinzugefügt. Dabei wird beim Training des Algorithmus eine Teilmenge der relevantesten Merkmale ausgewählt. Welche dies sind, entscheidet der Algorithmus auf Basis seiner im Laufe seines Trainings errechneten Daten. Der Algorithmus soll sich im Laufe der Zeit so weiterentwickeln, dass er Regimewechsel berechnen kann.

Erfolgreiche Tests bei Futures
Das GBDT-Modell wird an zwei gängigen Futures-Kontrakten getestet: dem kontinuierlich gerollten CBOT-Future (Chicago Board of Trade) auf die 10-jährige US-Schatzanweisung und dem kontinuierlich gerollten CME-Future (Chicago Mercantile Exchange) E-mini-Future auf den S&P-Index 500. Beim überwachten Lernen werden Labels verwendet. Ziel ist es, herauszufinden, welches Label am genauesten den Volatilitätszielmodellen entspricht – unter der Annahme bestimmter Merkmale zu einem bestimmten Zeitpunkt. Anhand von Zeitreihen des Volatilitätsmodells – der Marktindikatoren, der Rohstoffindikatoren und der Devisenmärkte sowie Carry-Indizes – lassen sich Statistiken wie Durchschnittswerte, Standardabweichungen, Sharpe-Ratios und andere verwandte technische Indikatoren berechnen.

Weitere Merkmale sind Prognosen zur Risikoeinstellung und Makroindizes. Hinzu kommen andere statistische Zahlen einschließlich kurzfristiger gleitender Durchschnitte und des Abstands vom Durchschnitt. Das DRL-Modell wird nur mit der US-Schatzanweisung getestet. Verstärkungslernen ist eine unüberwachte Lernmethode, die per Definition keine Kennzeichnungen erfordert. Der Satz von Merkmalen wird in zwei Kategorien unterteilt: die Asset-Inputs und die kontextuellen Inputs.

Das GBDT-Modell umfasst eine bestimmte Anzahl von Hyperparametern, die über einen Validierungsdatensatz von 2011 bis 2016 abgestimmt werden. Sobald die Hyperparameter abgestimmt sind, wird das Modell anhand einer Stichprobe zwischen 2017 und 2020 getestet. Die Modellparameter werden dann jedes Jahr neu kalibriert, um Vorhersagen für das folgende Testjahr zu treffen.

Kombi-Strategie für höhere Renditen
Das Verfahren enthält neun Zielvolatilitätsmodelle, die die Dynamik der Marktvolatilität berücksichtigen. Anschließend werden die Volatilität dieser Modelle und die Kontextinformationen addiert. Diese dienen als Input für den DRL-Ansatz, mit dem die Portfolioallokation, basierend auf den verschiedenen Volatilitätszielmodellen, ermittelt wird. Die Modellausgabe bezeichnet die Wahrscheinlichkeit für jedes Volatilitätsmodell, beim nächsten Zeitschritt die höchste Rendite zu erzielen. Dabei können mehrere Strategien anhand von Wahrscheinlichkeiten untersucht werden:

1.    Gewichtung: Die Wahrscheinlichkeit eines jeden Modells wird direkt als Zuweisung verwendet.
2.    Priorisierung: Nur die drei besten Modelle werden berücksichtigt.
3.    Das Beste befolgen: 100prozentige Investition in das Modell mit der höchsten Wahrscheinlichkeit

Diese Strategien werden mit der Benchmark verglichen, die eine gleichgewichtete Strategie verfolgt. Alternativ ist auch eine Durchschnittsstrategie möglich, innerhalb der neun Volatilitätszielmodelle gleichgewichtet vereint sind.

Fazit
Volatilitätszielstrategien erfordern präzise Prognosen der künftigen Volatilität und damit zuverlässige Modelle zur Vorhersage der Volatilitätsdynamik – angesichts zunehmend komplexer werdenden Finanzmärkte eine enorme Herausforderung. Doch die beschriebenen Versuche mittels adaptiver Lernmethoden beweisen, dass sich mit ihrer Hilfe Volatilitätsziele besser erreichen lassen.

Der modellbasierte Ansatz ermöglicht es, die Volatilitätsdynamik effizient zu erfassen, während der modellfreie ML-Ansatz den besten Zeitpunkt bestimmt, zu dem von einem auf ein anderes Modell umgeschaltet werden muss. Werden modellbasierte und modellfreie ML-Ansätze miteinander kombiniert, lassen sich solche Entscheidungen genauer treffen. Einen Beweis liefert die Anwendung der Methode auf Volatilitätszielstrategien für die 10-jährige US-Schatzanweisung und die E-mini S&P 500 Index-Futures-Kontrakte. Im Falle des überwachten Modells sind die Auswirkungen der Makroindikatoren und der Risikobereitschaft deutlich zu erkennen.

Autor



 
Serge Tabachnik, Head of Multi-Asset Research bei Lombard Odier Investment Managers (LOIM).

+++

Melden Sie sich bei Interesse zu unserem Web-Seminar „KI-gestützte Prognosemodelle zur Ermittlung von Kreditausfallwahrscheinlichkeit in Kreditinstituten“ an.

Stichworte

Verwandte Artikel

Anzeige

Lexikoneinträge