Forschung

Zentrale Aufgabe des IQAM Research ist die quantitative Kapitalmarktforschung und die Erstellung wissenschaftlicher Arbeiten in Kooperation mit Hochschulen und Partnern. Mit modernen Methoden werden Kapitalmarktphänomene empirisch untersucht und erklärt sowie grundsätzliche Fragestellungen der Kapitalanlage bearbeitet.

Filter zurücksetzen

31.08.2023

Vol, Skew and Smile Trading

The Journal of Derivatives

Aşty Al-Jaaf Peter Carr

Abstract

Al-Jaaf, A., & Carr, P. (2023). Vol, Skew, and Smile Trading. The Journal of Derivatives 31:64-95.

We show how a three-strike option portfolio can be used to trade the difference between the instantaneous variance rate and the implied variance rate, the difference between the instantaneous covariation rate and the implied slope, or the difference between the instantaneous variance rate of volatility and the implied convexity. We label each one of these strategies as vol, skew, and smile trades. Our results yield precise financial interpretations of particular measures of the level, slope, and curvature of a BMS implied variance curve. We provide empirical evidence that the average returns of the vol and smile (skew) trades are negative (positive) and that the returns of the skew and smile trades cannot be explained by the CAPM.

© [2023] PMR. All rights reserved.

Weiterführende Informationen

25.08.2023

Asset Pricing, Empirische Kapitalmarktforschung

Stock Picking with Machine Learning

Journal of Forecasting

Prof. Dr. Dominik Wolff Echterling, Dr. F.

Abstract

We analyze machine learning algorithms for stock selection. Our study builds on weekly data for the historical constituents of the S&P500 over the period from January 1999 to March 2021 and builds on typical equity factors, additional firm fundamentals, and technical indicators. A variety of machine learning models are trained on the binary classification task to predict whether a specific stock outperforms or underperforms the cross-sectional median return over the subsequent week. We analyze weekly trading strategies that invest in stocks with the highest predicted outperformance probability. Our empirical results show substantial and significant outperformance of machine learning-based stock selection models compared to an equally weighted benchmark. Interestingly, we find more simplistic regularized logistic regression models to perform similarly well compared to more complex machine learning models. The results are robust when applied to the STOXX Europe 600 as alternative asset universe.

Weiterführende Informationen

17.01.2023

Der Algorithmus sorgt für stabilere Prognosen

Deka Institutionell

Prof. Dr. Dominik Wolff Echterling, Dr. Fabian

Abstract

Der Algorithmus sorgt für stabilere Prognosen.

Wie lassen sich die Stärken maschinellen Lernens und künstlicher Intelligenz im Portfoliomanagement nutzen? Leistungsstärkere Computer und die Verfügbarkeit gigantischer Datenmengen haben in den letzten Jahren ganz neue Möglichkeiten geschaffen, um Signale und Zusammenhänge zwischen unterschiedlichen Faktoren zu identifizieren. Die Deka setzt diese Erkenntnisse schon heute erfolgreich in der Portfoliokonstruktion ein.

Im Asset Management steigt das Interesse am Einsatz von künstlicher Intelligenz (KI). Anwendungen wie das Machine Learning (ML) ermöglichen die Verarbeitung und Auswertung immer größerer Datenmengen. Daraus können Asset-Management-Experten tiefere Erkenntnisse über die Zusammenhänge von unterschiedlichen Faktoren gewinnen und neue Prognose-Modelle entwickeln.

Bei der Deka arbeiten Dr. Dominik Wolff und sein Kollege Dr. Fabian Echterling seit 2018 daran, Investmentprozesse mit Hilfe von Machine Learning zu optimieren. „Die Idee, durch die Auswertungen von Kennzahlen Muster mit Prognosefähigkeit zu identifizieren ist für uns nicht neu, da wir im quantitativen Fondsmanagement der Deka schon seit mehreren Jahren erfolgreich damit arbeiten“, erklärt Dominik Wolff. „Dabei kommen im quantitativen Asset Management traditionell vor allem lineare Modelle wie Regressionsanalysen zum Tragen. Mit Hilfe von Machine Learning sind wir nun in der Lage, auch nicht lineare Zusammenhänge zwischen Variablen abzugreifen. Die ML-Modelle identifizieren solche Interaktionen selbständig. So erhalten wir feinere und deutlich belastbarere Signale. Auch laufen wir nicht Gefahr, einzelne Faktoren zu stark zu gewichten, da die Algorithmen in den Modellen aus den Daten ‚lernen′, welche Faktoren relevant sind.“ Die Interpretation und Bewertung dieser Signale ist dabei allerdings weiterhin Sache der Portfoliomanager – ebenso wie die Entscheidung, ob und wie darauf gehandelt wird.

Dieses Zusammenspiel mit dem traditionellen Portfoliomanagement macht es leichter, den Einsatz von KI und ML mit potenziellen Kunden zu diskutieren. „Es hilft sicherlich, dass wir unser Machine Learning-Konzept aus unserer Quant-Expertise herleiten können, denn dadurch wird greifbarer, was wir machen und welchen Nutzen Machine Learning bietet“, betont Jörg Winner, Leiter des Kompetenzteams Unternehmen & Family Offices bei Deka Institutionell.

Qualität der Input-Daten entscheidend.

Machine Learning-Konzepte sowohl für die Analyse von Einzeltiteln als auch für die Prognose von Märkten und Indizes. Schon seit Längerem ist Machine Learning bei der taktischen Allokationssteuerung der quantitativen Mischfonds (Sigma Plus-Produktfamilie) im Einsatz. Hier prognostiziert ein Modell Aktienrenditen auf einer monatlichen Basis und wertet eine Vielzahl von Faktoren aus.

„Dazu zählen fundamentale Indikatoren wie Kurs-Gewinn- oder Kurs-Dividenden-Verhältnis und makroökonomische Indikatoren wie der Chicago Fed National Activity Index (der verschiedene Indikatoren zur Messung der wirtschaftlichen Aktivität kombiniert) oder der Index der Industrieproduktion. Andere Indizes wie der Einkaufsmanagerindex der University of Michigan (ISM) oder der Sentix messen das Marktsentiment und die Erwartungen der Marktteilnehmer. Risikoindikatoren wie Term-Spreads, Credit-Default-Spreads oder der Volatilitätsindex VIX reflektieren die Risikowahrnehmung der Markteilnehmer

Insgesamt fließen über 40 Variablen in das Modell ein, die wiederum auf eine tägliche Datenhistorie von 21 Jahren zurückgreifen können.

Ein weiteres Anwendungsfeld für ML bei der Deka ist die Identifikation von Aktienmärkten mit hohem kurzfristigen Outperformancepotenzial, um durch entsprechendes Market Timing Zusatzerträge zu generieren. Täglich werden 19 Aktienindizes weltweit, wie der DAX, der S&P 500 oder der MSCI Emerging Markets, auf die Wahrscheinlichkeit hin untersucht, am Folgetag eine Outperformance zu erzielen. Entsprechend der Signale des Modells gewichten die Fondsmanager der Deka über Futures den Index mit der höchsten Outperformancewahrscheinlichkeit über. Der Index, bei dem die Signale eine Underperformance erwarten lassen, wird über Short-Positionen untergewichtet.

Für Fabian Echterling sind die Auswahl der passenden Daten und die Qualitätskontrolle wesentliche Faktoren, die maßgeblich auch die Verwertbarkeit der Ergebnisse mitbestimmen. An dieser Stelle ist die Erfahrung menschlicher Experten, Datenanalysten oder auch Portfoliomanager gefragt: „Entscheidend ist, dass die historische Datenbasis gleich ist. Bei Preisdaten ist das in der Regel kein Problem, da diese Daten fix sind. Anders sieht es bei Makrodaten, wie z.B. den Inflationszahlen aus, die gelegentlich nachträglich angepasst werden. Wir nutzen deshalb die erstveröffentlichten Daten und achten bei den Backtests darauf, dass die Daten zum Zeitpunkt unserer Prognoseerstellung auch verfügbar waren.“

Die Algorithmen werden jährlich auf Basis der Daten der vorangegangenen Jahre trainiert, um die Prognosefähigkeit des Modells laufend zu verbessern. Im Konzept der Deka kommen dabei verschiedene Modellansätze wie Regression, baumbasierte Ansätze oder neuronale Netze zum Tragen. „Die jeweiligen Ansätze haben unterschiedliche Eigenschaften“, so Dominik Wolff. „Entscheidungsbaumbasierte Ansätze und neuronale Netze können im Gegensatz zu linearen Regressionsansätzen wie PCA oder LASSO auch Interaktionen und nicht lineare Zusammenhänge autark lernen. Allerdings brauchen sie ausreichend große Trainingsdaten, um ihre Überlegenheit auszuspielen. Es hängt also immer stark von den zugrundeliegenden Daten ab, welches Modell die besten Ergebnisse liefert. Wir gehen mit diesem Problem pragmatisch um: Die verschiedenen Modelle werden trainiert und der Mittelwert über alle Modeloutputs berechnet. So diversifizieren wir über verschiedene Modelle und erhalten letztendlich stabilere Prognosen.“

Mehrwert durch Erweiterung bestehender Ansätze.

Die Deka hat ihr Machine-Learning-Modell für das tägliche Futures Timing bereits seit Mitte 2020 als Testportfolio erprobt. Seit Dezember 2020 wird das Konzept in der Praxis als geringe Beimischung in ausgewählten Deka-Publikumsfonds erfolgreich eingesetzt: „Wir konnten mit unserem Modell einen positiven Performancebeitrag erzielen, der die Erträge passiver Aktieninvestments zum Beispiel deutlich übersteigt“, so das Fazit von Dominik Wolff. Künftig sind für ihn auch eigenständige KI-Fonds vorstellbar. Dabei bietet immer das Zusammenspiel aus Expertise und neuen technischen Möglichkeiten den eigentlichen Mehrwert: „Künstliche Intelligenz kann im Portfoliomanagement langjährige Erfahrung nicht vollständig ersetzen. Aber die erweiterten Möglichkeiten, die etwa Machine Learning bietet, können uns helfen, bestehende Prozesse zu optimieren und die Ergebnisse zu verbessern.“

Weiterführende Informationen

17.01.2023

Investieren mit Künstlicher Intelligenz

Handelsblatt

Prof. Dr. Dominik Wolff Echterling, Dr. Fabian

Abstract

Investieren mit Künstlicher Intelligenz

Umfassendere Datennutzung, ausgeklügeltere Anlageentscheidungen, optimierte Renditemöglichkeiten: Welches Potenzial Maschinelles Lernen im Portfoliomanagement eröffnet – und wie institutionelle Investoren davon profitieren können. 

Wer oft unterwegs ist, kann sich ein Leben ohne die Navigationsfunktion von „Google Maps“ kaum noch vorstellen. Doch nur wenige Smartphone-Nutzer dürften eine treffende Vorstellung davon haben, welche Datenmengen die App im Hintergrund verarbeitet, um sie zuverlässig und in möglichst kurzer Zeit ans Ziel zu leiten.

Dazu gehören etwa Faktoren wie die Straßenbeschaffenheit, das aktuelle Wetter oder aggregierte GPS-Standortdaten von Fahrzeugen. Auch Informationen von offiziellen Stellen und Feedback von Nutzerinnen und Nutzern fließen in die Berechnungen mit ein. So weiß Google Maps u. a. über Geschwindigkeitsbegrenzungen Bescheid oder darüber, ob bestimmte Wege beispielsweise aufgrund von Bauarbeiten gesperrt sind.

Diese aktuellen Daten und Informationen helfen bei der Einschätzung der Verkehrssituation – sie zeigen jedoch nicht, wie es um die Verkehrslage in zehn Minuten oder gar einer Stunde bestellt sein wird. Hierzu kommt ausgeklügelte Technologie ins Spiel: Um zu prognostizieren, wie der Verkehr in naher Zukunft aussehen dürfte, analysiert Google Maps gespeicherte Verkehrsmuster auf den Straßen im Zeitverlauf und kombiniert diese Daten mit der aktuellen Verkehrssituation.

Möglich sind diese Funktionalitäten durch den fortschreitenden Einsatz von Künstlicher Intelligenz (KI). Denn durch KI können enorme Datenmengen analysiert und dafür genutzt werden, neue Erkenntnisse zu generieren und dadurch bessere Entscheidungen zu treffen.
Der Begriff Künstliche Intelligenz – oder auch „erweiterte“ Intelligenz – steht für Technologien und Dienste, die das menschliche Denken so nachahmen, dass sie Informationen ähnlich verstehen und verarbeiten können wie der Mensch – allerdings ungleich schneller und umfassender. Vor allem Texte, Bilder oder Videos. Dinge also, die Computer früher nicht besonders gut „verstanden“ haben.

Wie bei der führenden Navigationslösung ist KI aus immer mehr Anwendungen, Unternehmen und dem alltäglichen Leben kaum mehr wegzudenken. Denn auf KI basierende Technologien werden zunehmend als Instrument genutzt, um Produkte und Dienstleistungen kontinuierlich zu verbessern oder neue Geschäftsfelder zu erschließen. Für nahezu jede Branche und Unternehmensgröße gibt es inzwischen gewinnbringende KI-Lösungen. Klassische Einsatzfelder sind derzeit etwa kundenindividuelle Produktempfehlungen im Online-Handel, automatisierte Bild-/Gesichtserkennung oder Echtzeit-Übersetzungsdienste in Smartphones.

Unternehmen wenden zunehmend eine neue Generation KI-gestützter Simulationen an, um ihre Produktionsprozesse zu verbessern: Solche sogenannten digitalen Zwillinge helfen ihnen zum Beispiel dabei, Waren und Dienstleistungen rechtzeitig an die Kunden zu liefern. Diese Algorithmen prognostizieren nicht nur mögliche Unterbrechungen der Produktions- und Logistikketten, sondern schlagen auch vor, was dagegen zu tun ist.

Simulationen unterstützen in der Industrie zwar schon seit Jahren die Entscheidungsfindung, dank enorm gestiegener Rechenleistung können mittlerweile aber auch komplexeste Prozesse mithilfe von KI simuliert werden.

Maschinelles Lernen in der Vermögensverwaltung

KI gilt gemeinsam mit Datenanalyse, Internet der Dinge und Cloud-Diensten als eines der stärksten digitalen Wachstumssegmente der nächsten Jahre. Es ist absehbar, dass die Bedeutung von KI – insbesondere ihrem Anwendungsbereich „Maschinelles Lernen“ (ML) – auch beim Thema Geldanlage und Vermögensverwaltung zunehmen wird.

So stehen an den Finanzmärkten tagtäglich wachsende Datenmengen zur Verfügung, die ohne KI-Unterstützung immer schwieriger zu bewältigen sind. Informationen über Unternehmen und Aktien etwa, aus denen wichtige Erkenntnisse zur Optimierung von Anlageentscheidungen gewonnen werden können. ML hilft im Zuge der rasanten technologischen Entwicklung durch eigenständige quantitative Bewertungen, das Potenzial dieser Informationsflut auszuschöpfen.

Bei ML generiert der Computer selbstständig Wissen aus Erfahrungen und kann eigenständig Lösungen für neue und unbekannte Probleme finden. Dazu analysiert ein System Beispieldaten und versucht mit Hilfe selbstlernender Algorithmen, in den Daten bestimmte Muster und Gesetzmäßigkeiten zu erkennen. Das Ziel von ML ist es, diese intelligent miteinander zu verknüpfen, Zusammenhänge zu erkennen und daraus Schlussfolgerungen zu ziehen.

Außerdem ermöglicht es ML, durch die Untersuchung vorhandener Daten aus der Gegenwart und der Vergangenheit Vorhersagen über zukünftige Entwicklungen zu treffen. Da ständig neue Daten gesammelt werden, verbessert sich ein solches System zudem kontinuierlich.

ML betrifft also die grundlegende Weise, wie man Computern beibringt, was sie leisten sollen. Vereinfacht gesagt gilt: Während Rechner in der Vergangenheit programmiert worden sind, werden sie heute trainiert. Um einen Computer etwa dazu zu befähigen, Sprache zu erkennen oder Objekte in einem Foto zu identifizieren, mussten Programmierer früher zunächst ein umfassendes Regelwerk für den Rechner entwerfen. Beim ML dagegen programmiert der Mensch keine Regeln mehr. Stattdessen erschafft er einen Algorithmus, der sich mithilfe von KI die notwendigen Regeln selbst erschließt.

Schon heute können Investoren von KI partizipieren, indem sie beispielsweise auf spezielle Anlagestrategien der Deka setzen, deren Portfoliomanagement von ML unterstützt wird. Performance-Analysen, auch von Szenarien aus der Vergangenheit, weisen hier vielversprechende Ergebnisse auf. Der Einsatz von KI ist dabei sowohl im Rahmen eines speziellen KI-Anlagekonzepts möglich als auch lediglich zur fallweisen Unterstützung ausgewählter Anlageentscheidungen. Und zwar sowohl auf Indexebene bei der kurzfristigen Asset-Allokation wie auch bei der strategischen (Einzeltitel-)Selektion.

Erfolgreich eingesetzt wird ML bereits in ausgewählten Deka-Investmentfonds in geringem Umfang als Beimischung. Ein Teil der Anlageentscheidungen erfolgt hier KI-unterstützt. Der ML-Ansatz der Fonds: ein in Bereichskooperation von Dr. Dominik Wolff, dem Leiter Quant Research, und Portfoliomanager Dr. Fabian Echterling entwickeltes kurzfristiges ML-basiertes Market-Timing-Modell. Hintergrund: Viele Marktteilnehmer nutzen technische Indikatoren für ihre Handelsentscheidungen. Und kurzfristig werden (relative) Aktienmarktrenditen vor allem durch solche Indikatoren getrieben. ML-Modelle können diese Zusammenhänge „lernen“ und so systematisch zur möglichen Renditeverbesserung nutzen.

Die Funktionsweise des in den Fonds genutzten ML-Ansatzes im Detail: Machine-Learning-Modelle werden darauf trainiert, Aktienindex-Futures mit der höchsten Outperformance-Wahrscheinlichkeit am Folgetag zu identifizieren. Das Anlageuniversum umfasst die wichtigsten weltweiten Aktienindizes. Das Training basiert auf Daten der vergangenen Jahre, wobei diese eine Vielzahl von technischen Indikatoren und Marktinformationen beinhalten. Jeden Tag erfolgen Investitionen in die Futures mit den höchsten Outperformance-Wahrscheinlichkeiten. Die Haltedauer dieser Portfoliopositionen ist dementsprechend kurz und beträgt einen bis wenige Tage.

Gleichermaßen bietet ML im Asset Management über die kurzfristige Allokation auf Indexebene die Optimierung der taktischen Asset-Allokation. Die Datengrundlage liefern hier unter anderem fundamentale Indikatoren, wie beispielsweise Kurs-Gewinn-Verhältnisse und Dividendenrenditen, aber auch makroökonomische Indikatoren, wie etwa Arbeitsmarktdaten oder etwa der Ölpreis.

Neben herkömmlichen Daten können auch Textinformationen verwertet werden. Etwa mithilfe von sogenanntem „Natural Language Processing“ (NLP): NLP ermöglicht es, aus der großen Menge von Textdaten, mit denen Marktteilnehmer tagtäglich konfrontiert werden, jene Informationen zu extrahieren, die für die künftige Wertentwicklung einzelner Investments wahrscheinlich von erheblicher Bedeutung sind. Dazu werden in einem aktuellen Research-Projekt der Deka von Hans Christian Schmitz und Dr. Wolff automatisiert Ad-hoc-Meldungen von Unternehmen analysiert und automatisch in positiv, negativ oder neutral klassifiziert.

In einem anderen Research-Projekt beschäftigen sich die Deka-Investment-Manager mit der Medienpräsenz von Unternehmen. Dabei werden die Stärke der Präsenz von Unternehmen in den Medien sowie das Sentiment der betreffenden Nachrichtenartikel ausgewertet. Dieses Signal kann bei der Aktienauswahl berücksichtigt werden.

Fazit: Der Einsatz von Künstlicher Intelligenz und insbesondere von Maschinellem Lernen ermöglicht schon heute durch die Erweiterung um zusätzliche Parameter und Risikoreduktion eine sinnvolle Ergänzung bestehender quantitativer Ansätze. Die Deka registriert derzeit eine zunehmende Nachfrage in diesem Themenfeld, die Eignung für den jeweiligen Anleger sollte jedoch im konkreten Einzelfall besprochen und analysiert werden.

Perspektivisch ist für das Fondshaus der Sparkassen auch die Entwicklung maßgeblich durch ML gesteuerter Aktienportfolios eine denkbare Option.

Weiterführende Informationen

17.01.2023

Natural Language Processing (NLP)  wird zukünftig eine große Rolle spielen,

Markt & Impuls Print Sonderheft „Quant Management bei der Deka“

Prof. Dr. Dominik Wolff Prof. Dr. Thomas Dangl

Abstract

Quantitatives Investieren ist ein äußerst dynamischer Bereich des Asset Managements, der sich, nicht zuletzt durch immer leistungsfähigere Technik, beständig weiterentwickelt. Als einer der größten Anbieter quantitativ gemanagter Lösungen in Deutschland ist für die Deka daher die Optimierung verwendeter Strategien und die Suche nach neuen möglichen Ansätzen von besonderem Interesse. Aus diesem Grund hat sie bereits 2013 ein eigenes Institut für quantitative Kapitalmarktforschung gegründet, das heutige IQAM Research, in dem die Forschungsaktivitäten ihrer Mitarbeitenden und die Kooperationen mit Hochschulen und anderen Partnern gebündelt werden.

Austausch von Forschung und Praxis.

„Mit IQAM Research ist die Deka einer der Vorreiter im Bereich akademischer Forschung im deutschsprachigen Raum“, berichtet Dr. Dominik Wolff, Portfoliomanager und Head of Quantitative Research im quantitativen Fondsmanagement der Deka. Primäres Ziel der Forschungsarbeit ist neben dem akademischen Aspekt auch immer, die quantitativen Produkte der Deka weiterzuentwickeln. „Wenn wir uns mit neuen Themen beschäftigen, stellen wir uns zuerst die Frage, ob sie realistische, praktische Anwendungsmöglichkeiten bieten und ob wir mit den Konzepten unsere Produkte verbessern können“, so Dr. Wolff. Dabei ist die Kooperation mit den Hochschulen und die Zusammenarbeit mit den Professoren des wissenschaftlichen Beirats von IQAM Research sehr hilfreich. Durch den Austausch zwischen akademischer Forschung und Praxis erhält die Deka regelmäßig viele spannende Impulse und kann neue Entwicklungen und Erkenntnisse im Fondsmanagement schneller für Kundinnen und Kunden nutzbar machen.

Auch für die Partner aus der Wissenschaft ist die Kooperation sehr fruchtbar, bestätigt Prof. Dr. Dr. Thomas Dangl, Professor für Finance an der Technischen Universität Wien: „Die Zusammenarbeit mit Asset Managern wie der Deka ist für uns als Wissenschaftler sehr reizvoll, bietet sie uns doch die Gelegenheit akademische und angewandte Forschung zu kombinieren. So bin ich beispielsweise Mitglied der wissenschaftlichen Leitung bei der IQAM Invest und nehme in dieser Funktion an vielen Gremiensitzungen teil, in denen wir konkrete Problem- und Fragestellungen bei der Umsetzung quantitativer Ansätze aus erster Hand miterleben. Aus dieser Zusammenarbeit ergeben sich auch immer wieder neue Forschungsthemen.“

Textbasierte Investitionssignale.

Ein solches Thema ist beispielsweise die automatisierte Extraktion von Informationen aus Text durch Künstliche Intelligenz (KI), auch Natural Language Processing (NLP) genannt. Unter KI versteht man gemeinhin die Fähigkeit von Maschinen, menschliche Leistungen zu erbringen, die Intelligenz erfordern. Ist der Computer dann auch noch in der Lage, selbstständig Zusammenhänge in Daten zu erkennen und kann er eigenständig Lösungen für neue und unbekannte Probleme finden, spricht man von Machine Learning, einem Teilbereich von KI. NLP wiederum stellt einen konkreten Anwendungsbereich von Machine Learning dar. Die Interpretation von Texten mithilfe von Künstlicher Intelligenz spielt im Asset Management bisher nur eine untergeordnete Rolle. Dies ändert sich jedoch rasant. Dank des technologischen Fortschritts der vergangenen Jahre sind Algorithmen heutzutage immer besser darin, Texte semantisch zu verstehen. Sowohl Deka als auch IQAM Invest forschen daher an Ansätzen, textbasierte Investitionssignale zu generieren sowie nutzbar zu machen und nutzen dafür unter anderem das BERT-Modell von Google.

BERT wurde im Jahr 2018 von Google der Öffentlichkeit zugänglich gemacht, und hat sich seitdem als wichtige Instanz im Natural Language Processing etabliert. Es basiert auf neuronalen Netzwerken und bietet den enormen Vorteil, dass zum Training des Algorithmus keine von Menschen strukturierten Daten mehr nötig sind, sondern nicht annotierte Textquellen verwendet werden können. BERT ist in der Lage, aus ihrem Kontext auf die Bedeutung von Wörtern zu schließen. Um einen Text zu verstehen, muss dieser zuerst in mathematische Sprache „übersetzt“ werden. Wörter werden in Vektoren umgewandelt, die deren Semantik repräsentieren und die in einem vieldimensionalen Vektorraum eingebettet werden. Die Lage eines Vektors bestimmt die Kontextinformationen, die er darstellt. Semantisch ähnliche Wörter sind in bestimmten Bereichen des Vektorraums geballt. So kann aus der geometrischen Lage des Vektors auf eine Ähnlichkeit in der Bedeutung geschlossen werden. Die Basisversion von BERT nutzt Vektoren mit über 700 Dimensionen und ist damit in der Lage, sehr komplexe Zusammenhänge darzustellen. Das ist wichtig, um die unterschiedliche inhaltliche Bedeutung semantisch gleicher Begriffe wie etwa „Bank“ (als Sitzmöbel und Kreditinstitut) richtig zu erfassen.

„Bei der Deka nutzen wir BERT aktuell in verschiedenen Forschungsprojekten. In einem Projekt beispielsweise trainieren wir den Algorithmus mit ca. 10.000 historischen Ad-hoc-Meldungen von Unternehmen. Diese werden analysiert und mit einer Sentiment-Analyse automatisiert einer von drei verschiedenen Kategorien zugeordnet: positive, negative oder neutrale Wirkung auf den Aktienkurs des veröffentlichenden Unternehmens. Danach vergleichen wir diese Einschätzungen mit den tatsächlichen Kursentwicklungen, die über den Markteffekt hinausgehen“, erläutert Dr. Wolff das Vorgehen. Durch dieses Training kann das Modell dann bei neuen Ad-hoc-Meldungen eine Prognose abgeben, wie die Veröffentlichung den Aktienkurs beeinflussen wird.

Machine Learning bietet viel Potenzial.

„Dank der massiv gestiegenen Rechenleistung moderner Computer sowie den enormen zur Verfügung stehenden Datenmengen ist Machine Learning ein sehr spannender Teilbereich des quantitativen Fondsmanagements, der noch viel Potenzial für die Zukunft bietet. So gibt es z.B. für tausende Aktien eine Vielzahl von fundamentalen Kennzahlen, Analysteneinschätzungen und technische Indikatoren, die mit Machine Learning ausgewertet werden können, um attraktive Aktien zu selektieren. Zudem legen die Fortschritte in der Textanalyse nahe, dass NLP zukünftig eine sehr viel größere Rolle spielen wird“, fasst Prof. Dr. Dr. Thomas Dangl zusammen. „Aber auch im Bereich faktorbasiertes Investieren könnte sich in den kommenden Jahren noch einiges tun“, ergänzt Dr. Wolff. „So wurden Faktoren bisher händisch gesucht und nichtlineare Zusammenhänge sowie Abhängigkeiten zwischen Faktoren in der Regel vernachlässigt – mit Machine Learning können mittlerweile sehr große Datenmengen systematisch untersucht und so auch nichtlineare Zusammenhänge gefunden werden. Es ist also durchaus vorstellbar, dass wir hier mit Big Data noch weitere Faktoren finden werden, die sich in faktorbasierten Strategien einsetzen lassen.“

Weiterführende Informationen

17.01.2023

Textbasierte Investitionssignale

Deka Institutionell

Prof. Dr. Dominik Wolff

Abstract

Elon Musk übernimmt Twitter. Volkswagen schränkt die Produktion in China ein. Unilever erhöht die Umsatzprognose. An den Finanzmärkten müssen Tag für Tag unzählige Nachrichten wie diese verarbeitet werden. Es ist eine Informationsflut, die ohne Unterstützung durch technische Hilfsmittel immer schwieriger zu bewältigen ist. Dabei können aus den Informationen über Unternehmen und Aktien in der Regel wichtige Erkenntnisse für Anlageentscheidungen gewonnen werden.

Dass Finanznachrichten eine wesentliche Rolle bei der Preisbildung von Vermögenswerten spielen, wurde in wissenschaftlichen Studien, etwa von Kearney und Liu (2014), bestätigt. „Es gibt einen breiten Konsens darüber, dass die Stimmung zu einem Unternehmen in den Medien sowohl die Aktienrenditen als auch das Aktienhandelsvolumen stark beeinflusst“, bestätigt Dr. Dominik Wolff, Head Quant Research / Asset Allocation bei der Deka.

Doch der Grad des Einflusses einer Finanznachricht auf die Aktienkurse ist sehr unterschiedlich. Die Frage ist daher, welche Nachrichten wichtig sind und welche eher weniger. Und wie aus den Nachrichten konkrete Investitionssignale generiert werden können. Ein wichtiges Instrument, um diese Fragen zu beantworten und die Relevanz von Nachrichten zu bestimmen, ist das Natural Language Processing, kurz NLP.

Interpretation mithilfe von Künstlicher Intelligenz.

Als Teilbereich der Künstlichen Intelligenz ermöglicht NLP es, aus der großen Menge von Daten, mit denen Marktteilnehmer tagtäglich konfrontiert werden, Textinformationen maschinell zu erfassen und mithilfe von Algorithmen zu verarbeiten und zu interpretieren. Konkret können im Idealfall somit genau die Informationen extrahiert werden, die für die künftige Wertentwicklung einzelner Investments wahrscheinlich von erheblicher Bedeutung sind.

Zusammen mit der Universität Freiburg hat die Deka in einer umfangreichen Analyse untersucht, wie Nachrichtenartikel genutzt werden können, um daraus Sentiment-Scores für Einzelaktien sowie für ganze Sektoren zu berechnen. Wie also ist die Bewertung bzw. die Wahrnehmung zu einem Unternehmen, wie zu bestimmten Branchen? Dazu wurden unterschiedliche News-Quellen, unter anderem CNN, Bloomberg und Reuters, sowie Unternehmensberichte über einen Zeitraum von drei Jahren ausgewertet und analysiert, die Unternehmen des Index S&P 500 betrafen.

„Um die Relevanz einer Nachricht für ein spezifisches Unternehmen einzuschätzen, wurde die Ähnlichkeit einer Nachricht mit der betreffenden Unternehmensbeschreibung berechnet“, erläutert Dr. Wolff. Die Experten nutzten dafür eine Methodik aus dem NLP-Bereich, das sogenannte BERT-Modell (Bidirectional Encoder Representations from Transformers). BERT, das 2018 von Google veröffentlicht wurde, basiert auf neuronalen Netzwerken und ist in der Lage, aus ihrem Kontext auf die Bedeutung von Wörtern zu schließen.

Sentiment-Scores geben Hinweise.

Neben der Relevanz eines Nachrichtenartikels für jedes Unternehmen im S&P 500 wurde zusätzlich das Sentiment eines jeden Artikels berechnet. „Dabei haben wir positiven und negativen Signalwörtern positive und negative Scores zugewiesen“, sagt Dr. Wolff. Zu den positiven Signalwörtern gehörten beispielsweise „stabil“, „profitabel“, „Fortschritt“ oder „kompetent“. Dagegen wurden Begriffen wie „Fehler“, „Problem“, „Engpass“ oder „aufgeben“ negative Scores zugeteilt. „Durch einfaches Wörterzählen wurde dann ein Sentiment-Score für jeden Nachrichtenartikel berechnet“, beschreibt der Deka-Experte das Vorgehen.

Anschließend wurden die Relevanz und Sentiment-Scores durch einfache Multiplikation beider Größen verknüpft. Da das Sentiment von Tag zu Tag variieren kann, wurde ein Mittelwert gebildet, um stabilere Signale zu erhalten.

Letztendlich wurden die Ergebnisse auf Sektor-Ebene mittels kostengünstiger und hochliquider ETFs in verschiedene Strategien umgesetzt. Das bemerkenswerte Ergebnis: Die Sentiment-basierte Sektor-Strategie erzielte im Beobachtungszeitraum Dezember 2018 bis Mai 2022 gegenüber Anlagen in Indexfonds auf dem breiten S&P 500 eine deutliche Outperformance. Konkret erreichte die Sektor-Strategie eine Rendite p. a. von 21,1 Prozent, während der S&P 500 „nur“ um 11,9 Prozent p. a. zulegen konnte, und das bei nahezu identischer Volatilität.

Die Sharpe Ratio stieg von 0,52 im S&P 500 auf 0,95 bei der Sektor-Strategie. Auch der maximale Verlust der Strategie war geringer als bei der Benchmark. Gegenüber einfachen Momentum- und Reversal-Ansätzen war die Sektor-Timing-Strategie ebenfalls deutlich überlegen. Die Momentum-Strategie investierte in die drei Sektoren mit der höchsten Rendite in den vergangenen drei Monaten, während die Reversal-Strategie auf die drei Sektoren mit der schwächsten Performance in den vergangenen drei Monaten setzte.

Als Beimischung für institutionelle Investoren geeignet.

„Die von uns aufgezeigte Sektor-Strategie ist durch eine einfache Umsetzung über ETFs oder Futures sowohl für kleine als auch für große institutionelle Investoren interessant und grundsätzlich als Beimischung für verschiedene Portfoliostrategien geeignet“, zieht Dr. Wolff ein Fazit. Anders als bei einzeltitelbasierten Machine-Learning-Ansätzen zeichne sich der Sektor-Ansatz vor allem durch eine robustere Gewichtsallokation sowie eine geringere Anzahl an investierten Titeln bei gleichzeitiger Diversifikation aus.

Darüber hinaus können institutionelle Investoren die Strategie nach Ansicht Wolffs auch im Spezialfondsmantel oder als Ergänzung zu einem bestehenden Portfolio im Rahmen eines Overlays anwenden. Die Umsetzung könnte hier über Sektor-Futures oder Sektor-ETFs erfolgen. Auch eine marktneutrale Umsetzung – unabhängig von den Marktbewegungen – sei möglich. Hierbei können die Investitionen in die Top-Sentiment-Sektoren durch eine Short-Position im S&P 500 Future ergänzt werden.

Die Analyse zeigt eindrucksvoll, dass der Einsatz von Künstlicher Intelligenz – und hier speziell der Textanalyse – durch die Erweiterung um zusätzliche Parameter wichtige Erkenntnisse für die Kapitalanlage bringen und eine sinnvolle Ergänzung bestehender Anlagestrategien sein kann. Solche Analysen der Kapitalmarktforschung dürften deshalb künftig immer stärker in konkrete Investmentstrategien einfließen.

Weiterführende Informationen

17.01.2023

„KI: Neue Technologien erweitern das Spektrum im Portfoliomanagement“

Prof. Dr. Dominik Wolff

Abstract

„KI: Neue Technologien erweitern das Spektrum im Portfoliomanagement“

Fast wäre es in der Nachrichtenflut untergegangen: Mit Hilfe künstlicher Intelligenz (KI) haben Wissenschaftler und Musiker die unvollendete 10. Sinfonie Ludwig van Beethovens ergänzt und im Oktober 2021 uraufgeführt – 195 Jahre nach dem Tod des Komponisten. Das Beispiel der Beethoven-Sinfonie dürfte bei Skeptikern einmal mehr die Frage aufwerfen, ob KI den „menschlichen Faktor“ in der Zukunft ersetzen kann.

Dabei ist die Realität heute weitaus nüchterner. Anwendungen künstlicher Intelligenz sind 2021 bereits allgegenwärtig. Alexa, Spotify und Internetshopping machen algorithmusbasierte Suchsysteme mittlerweile für viele Menschen im Alltag erlebbar. In Bereichen wie autonomer Mobilität oder bei KI-basierten Diagnosesystemen in der Medizin winken enorme wirtschaftliche Potenziale. Diese Anwendungsmöglichkeiten basieren zum großen Teil auf dem vielleicht bekanntesten Teilgebiet künstlicher Intelligenz: dem maschinellen Lernen (Machine Learning).

Im Kern geht es beim Machine Learning darum, mit Hilfe von Algorithmen aus großen, unstrukturierten Datenmengen sinnvolle und relevante Informationen zu extrahieren, indem Regelmäßigkeiten, Wiederholungen oder Ähnlichkeiten maschinell erfasst werden. Die Identifikation solcher Muster ist ein wesentliches Element. Das Besondere am Machine Learning ist die Fähigkeit des jeweiligen Algorithmus, selbst zu „lernen“, welche Verbindungen und Muster relevant sind.

Technologische Entwicklung unterstützt KI.

Die Anwendungsmöglichkeiten künstlicher Intelligenz und maschinellen Lernens haben in den vergangenen zehn Jahren durch verschiedene Faktoren einen Schub bekommen. Da ist zunächst die Leistungsfähigkeit moderner Computer. Schon heutige Standard-Smartphones haben die millionenfache Rechenleistung des Bordcomputers der Apollo-11-Mondmission von 1969. Bei KI-Systemen verdoppelt sich die Rechenleistung etwa alle dreieinhalb Monate. Während die Hardwarekomponenten immer leistungsfähiger werden, gelingt es den Entwicklern gleichzeitig, immer mehr Performance aus der Hardware herauszuholen. Hinzu kommt, dass heute enorme Datenmengen aus unterschiedlichen Quellen zur Verfügung stehen und ausgewertet werden können. Ob Transaktionsdaten von Zahlungssystemen, Onlinehandel, E-Mails, Social-Media-Posts oder Bewegungsprofile von Mobilfunkgeräten – die Menge an Text-, Bild- oder Bewegtbilddaten wächst stetig. Das Institut der deutschen Wirtschaft schätzt, dass das weltweite Datenvolumen von rund 33 Zettabyte (ZB) im Jahr 2018 auf 175 ZB im Jahr 2025 ansteigen wird. Ein Zettabyte umfasst 1021 Byte, das entspricht der unglaublichen Datenmenge von rund 2 Billionen Filmen à 90 Minuten. Aus diesem Datenmeer lassen sich mit Hilfe von Algorithmen Muster identifizieren – und zunehmend auch Vorhersagen ableiten. Das schafft eine Vielzahl von neuen Einsatzmöglichkeiten für Machine Learning.

Machine Learning im Portfoliomanagement.

Asset Manager wie die Deka setzen Machine Learning heute bereits in unterschiedlichen Bereichen ein, unter anderem im Portfoliomanagement. Die Analyse und richtige Interpretation von Daten und Zusammenhängen ist dabei ausschlaggebend für die Generierung von Alpha. Mit Machine Learning können größere Datenmengen analysiert werden, als durch eine rein menschliche Analyse. Mit Hilfe des Natural Language Processing (NLP), einer Teildisziplin des Machine Learning, lassen sich beispielsweise aus Millionen von Nachrichtenartikeln alle relevanten Informationen herausfiltern und bewerten. Und das kann sehr Vieles sein: Aktienwerte, in die investiert wurde oder in die investiert werden soll, Produkte dieser Firmen, die aus unterschiedlichen Gründen in den Fokus der Öffentlichkeit geraten, oder marktrelevante Äußerungen von Vorständen, Wissenschaftlern oder Politikern. Stellt man etwa die Antworten von CEOs in Analystenkonferenzen in Zusammenhang mit der anschließenden Entwicklung der jeweiligen Aktien, entsteht so über einen Betrachtungszeitraum von mehreren Jahren ein Bild der Glaubwürdigkeit und Belastbarkeit der jeweiligen Aussagen des betreffenden CEO. Auch die Interpretation von Bilddaten kann dabei helfen, Aussagen zur Entwicklung und der Qualität von Unternehmen zu bekommen. Ein häufig genanntes Beispiel sind Satellitenbilder, die über die Anzahl von Pkws auf den Parkplätzen von Shoppingcentern an Ferientagen Aufschluss über mögliche Umsatzentwicklungen geben können. Aber die Menge schafft neue Herausforderungen: „Wir greifen bei unseren Machine Learning-Konzepten auf rund 1,3 Millionen Einzelbeobachtungen aus dem Zeitraum von 1999 bis 2021 zurück, das sind über 1.100 Datenpunkte pro Woche“, erklärt Dr. Dominik Wolff, Portfoliomanager bei der Deka Investment. „Hier kommen Menschen einfach an ihre Grenzen. Machine Learning ermöglicht es uns, diese Daten auszuwerten und entsprechende Rückschlüsse zu ziehen.“

Menschliche Expertise nicht ersetzbar.

Die wachsenden technischen Kapazitäten erweitern das Spektrum der Analysemöglichkeiten. Die langjährige Erfahrung menschlicher Analysten können sie bislang aber nicht vollständig ersetzen. Zwar werden Algorithmen verstärkt auch dazu genutzt, psychologische Faktoren menschlicher Entscheidungen wie Bestätigungsfehler, Verlustaversion oder Selbstüberschätzung zu identifizieren und zu beseitigen. Umgekehrt sind Machine Learning-Systeme aber darauf angewiesen, dass die eingegebenen Daten zur Aufgabenstellung passen und in ihrer Historie vollständig und schlüssig sind. Diese Prüfung fällt in den Zuständigkeitsbereich von Datenanalysten, die entsprechende Datenquellen finden, erschließen und die Daten aufbereiten. Auch die Interpretation der Analyseergebnisse bleibt Aufgabe der menschlichen Investmentprofis. Denn die Algorithmen liefern zwar Hinweise auf Muster in den Daten, aber ob die gefundenen Korrelationen tatsächlich ein belastbares Signal darstellen oder nur „Datenlärm“ sind, und vor allem, wie ein identifiziertes Signal letztendlich in eine Investmententscheidung umgesetzt wird, lässt sich häufig nur auf Basis langjähriger Markterfahrung entscheiden.

Beethovens 10. Sinfonie wurde durch künstliche Intelligenz vollendet. Sie basiert aber auf den Skizzen und Notizen des Künstlers. So wie in diesem Beispiel auch, ist künstliche Intelligenz im Portfoliomanagement eine wertvolle Ergänzung – und kein Ersatz – der menschlichen Expertise.

Weiterführende Informationen

17.01.2023

Empirische Kapitalmarktforschung

Asymptotic extrapolation of model-free implied variance: exploring structural underestimation in the VIX Index

Review of Derivatives Research volume

Philip Stahl

Abstract

We show that the VIX Index structurally underestimates model-free implied volatility because its implementation omits extrapolation of the volatility smile in the tails. We use the asymptotic behavior of the volatility surface to construct a correction term that is model-independent and only requires option prices at the two outermost strikes. We show how to apply this correction to the VIX Index ex-post as well as how to modify its implementation accordingly. Furthermore, we show that the degree of underestimation varies over time. For the S&P 500 Index and the DJIA Index the error is larger in periods of sustained low volatility. This cannot be observed for the Volatility-of-VIX Index.

Weiterführende Informationen

03.12.2021

Faktor oder Sektor?

Institutional Money

Prof. Dr. Dominik Wolff Prof. Wolfgang B. Dr. Georgi T.

Abstract

Faktor- und Sektor-Optimierungen im Rahmen von Asset Allocation-Strategien zeigen unterschiedliche Erfolge in unterschiedlichen Zeiten und Zeitfenstern: Wer wann die Nase vorne hat.

 

 

https://www.institutional-money.com/fileadmin/emagazin/2021_4_IM/124/index.html

Weiterführende Informationen

17.11.2021

Asset Pricing, Empirische Kapitalmarktforschung

News Embeddings for Sector Timing – A textual similarity based approach to determining trending sectors in news coverage

17.11.2021

Schmitz, Hans Christian Prof. Dr. Dominik Wolff Prof. Dr. Dirk N. Dr. Bernhard L.

Abstract

In this study, we present an approach to quantify the relevance of daily newspaper articles  for individual companies and their corresponding sectors. Based on the textual content of daily newspaper, we utilize sentence and paragraph embeddings to compare news articles from daily newspapers over a time span of 15 years with company descriptions from Form 10-K filings. We measure the relevance of a news article as the similarity between the article and the company’s description. In contrast to prevalent approaches in the literature, our relevance estimation does neither rely on stock price data nor on a predefined mapping between news articles and companies. We evaluate the proposed methodology on several strategies on sector exchange traded funds and on the level of individual stocks. We find that the trading strategies based on our relevance estimation approach yield up to 15.38% out-of-sample annualized return after transaction costs.