Authors
Abstract
Quantitatives Investieren ist ein äußerst dynamischer Bereich des Asset Managements, der sich, nicht zuletzt durch immer leistungsfähigere Technik, beständig weiterentwickelt. Als einer der größten Anbieter quantitativ gemanagter Lösungen in Deutschland ist für die Deka daher die Optimierung verwendeter Strategien und die Suche nach neuen möglichen Ansätzen von besonderem Interesse. Aus diesem Grund hat sie bereits 2013 ein eigenes Institut für quantitative Kapitalmarktforschung gegründet, das heutige IQAM Research, in dem die Forschungsaktivitäten ihrer Mitarbeitenden und die Kooperationen mit Hochschulen und anderen Partnern gebündelt werden.
Austausch von Forschung und Praxis.
„Mit IQAM Research ist die Deka einer der Vorreiter im Bereich akademischer Forschung im deutschsprachigen Raum“, berichtet Dr. Dominik Wolff, Portfoliomanager und Head of Quantitative Research im quantitativen Fondsmanagement der Deka. Primäres Ziel der Forschungsarbeit ist neben dem akademischen Aspekt auch immer, die quantitativen Produkte der Deka weiterzuentwickeln. „Wenn wir uns mit neuen Themen beschäftigen, stellen wir uns zuerst die Frage, ob sie realistische, praktische Anwendungsmöglichkeiten bieten und ob wir mit den Konzepten unsere Produkte verbessern können“, so Dr. Wolff. Dabei ist die Kooperation mit den Hochschulen und die Zusammenarbeit mit den Professoren des wissenschaftlichen Beirats von IQAM Research sehr hilfreich. Durch den Austausch zwischen akademischer Forschung und Praxis erhält die Deka regelmäßig viele spannende Impulse und kann neue Entwicklungen und Erkenntnisse im Fondsmanagement schneller für Kundinnen und Kunden nutzbar machen.
Auch für die Partner aus der Wissenschaft ist die Kooperation sehr fruchtbar, bestätigt Prof. Dr. Dr. Thomas Dangl, Professor für Finance an der Technischen Universität Wien: „Die Zusammenarbeit mit Asset Managern wie der Deka ist für uns als Wissenschaftler sehr reizvoll, bietet sie uns doch die Gelegenheit akademische und angewandte Forschung zu kombinieren. So bin ich beispielsweise Mitglied der wissenschaftlichen Leitung bei der IQAM Invest und nehme in dieser Funktion an vielen Gremiensitzungen teil, in denen wir konkrete Problem- und Fragestellungen bei der Umsetzung quantitativer Ansätze aus erster Hand miterleben. Aus dieser Zusammenarbeit ergeben sich auch immer wieder neue Forschungsthemen.“
Textbasierte Investitionssignale.
Ein solches Thema ist beispielsweise die automatisierte Extraktion von Informationen aus Text durch Künstliche Intelligenz (KI), auch Natural Language Processing (NLP) genannt. Unter KI versteht man gemeinhin die Fähigkeit von Maschinen, menschliche Leistungen zu erbringen, die Intelligenz erfordern. Ist der Computer dann auch noch in der Lage, selbstständig Zusammenhänge in Daten zu erkennen und kann er eigenständig Lösungen für neue und unbekannte Probleme finden, spricht man von Machine Learning, einem Teilbereich von KI. NLP wiederum stellt einen konkreten Anwendungsbereich von Machine Learning dar. Die Interpretation von Texten mithilfe von Künstlicher Intelligenz spielt im Asset Management bisher nur eine untergeordnete Rolle. Dies ändert sich jedoch rasant. Dank des technologischen Fortschritts der vergangenen Jahre sind Algorithmen heutzutage immer besser darin, Texte semantisch zu verstehen. Sowohl Deka als auch IQAM Invest forschen daher an Ansätzen, textbasierte Investitionssignale zu generieren sowie nutzbar zu machen und nutzen dafür unter anderem das BERT-Modell von Google.
BERT wurde im Jahr 2018 von Google der Öffentlichkeit zugänglich gemacht, und hat sich seitdem als wichtige Instanz im Natural Language Processing etabliert. Es basiert auf neuronalen Netzwerken und bietet den enormen Vorteil, dass zum Training des Algorithmus keine von Menschen strukturierten Daten mehr nötig sind, sondern nicht annotierte Textquellen verwendet werden können. BERT ist in der Lage, aus ihrem Kontext auf die Bedeutung von Wörtern zu schließen. Um einen Text zu verstehen, muss dieser zuerst in mathematische Sprache „übersetzt“ werden. Wörter werden in Vektoren umgewandelt, die deren Semantik repräsentieren und die in einem vieldimensionalen Vektorraum eingebettet werden. Die Lage eines Vektors bestimmt die Kontextinformationen, die er darstellt. Semantisch ähnliche Wörter sind in bestimmten Bereichen des Vektorraums geballt. So kann aus der geometrischen Lage des Vektors auf eine Ähnlichkeit in der Bedeutung geschlossen werden. Die Basisversion von BERT nutzt Vektoren mit über 700 Dimensionen und ist damit in der Lage, sehr komplexe Zusammenhänge darzustellen. Das ist wichtig, um die unterschiedliche inhaltliche Bedeutung semantisch gleicher Begriffe wie etwa „Bank“ (als Sitzmöbel und Kreditinstitut) richtig zu erfassen.
„Bei der Deka nutzen wir BERT aktuell in verschiedenen Forschungsprojekten. In einem Projekt beispielsweise trainieren wir den Algorithmus mit ca. 10.000 historischen Ad-hoc-Meldungen von Unternehmen. Diese werden analysiert und mit einer Sentiment-Analyse automatisiert einer von drei verschiedenen Kategorien zugeordnet: positive, negative oder neutrale Wirkung auf den Aktienkurs des veröffentlichenden Unternehmens. Danach vergleichen wir diese Einschätzungen mit den tatsächlichen Kursentwicklungen, die über den Markteffekt hinausgehen“, erläutert Dr. Wolff das Vorgehen. Durch dieses Training kann das Modell dann bei neuen Ad-hoc-Meldungen eine Prognose abgeben, wie die Veröffentlichung den Aktienkurs beeinflussen wird.
Machine Learning bietet viel Potenzial.
„Dank der massiv gestiegenen Rechenleistung moderner Computer sowie den enormen zur Verfügung stehenden Datenmengen ist Machine Learning ein sehr spannender Teilbereich des quantitativen Fondsmanagements, der noch viel Potenzial für die Zukunft bietet. So gibt es z.B. für tausende Aktien eine Vielzahl von fundamentalen Kennzahlen, Analysteneinschätzungen und technische Indikatoren, die mit Machine Learning ausgewertet werden können, um attraktive Aktien zu selektieren. Zudem legen die Fortschritte in der Textanalyse nahe, dass NLP zukünftig eine sehr viel größere Rolle spielen wird“, fasst Prof. Dr. Dr. Thomas Dangl zusammen. „Aber auch im Bereich faktorbasiertes Investieren könnte sich in den kommenden Jahren noch einiges tun“, ergänzt Dr. Wolff. „So wurden Faktoren bisher händisch gesucht und nichtlineare Zusammenhänge sowie Abhängigkeiten zwischen Faktoren in der Regel vernachlässigt – mit Machine Learning können mittlerweile sehr große Datenmengen systematisch untersucht und so auch nichtlineare Zusammenhänge gefunden werden. Es ist also durchaus vorstellbar, dass wir hier mit Big Data noch weitere Faktoren finden werden, die sich in faktorbasierten Strategien einsetzen lassen.“
More information