Kurz gefasst
- Vor 125 Jahren wurden mit der Veröffentlichung von Louis Bacheliers Theorie der Spekulation im Jahr 1900 die Grundlagen des quantitativen Investierens gelegt.
- Die praktische Anwendung der quantitativen Wissenschaft nahm ab den späten 1960er Jahren Fahrt auf, unterstützt durch Verbesserungen der Rechenleistung, die die Analyse großer Datensätze und das Backtesting von Portfoliostrategien erleichterten.
- Gegen Ende des 20. Jahrhunderts war eine der wichtigsten Entwicklungen im Bereich der quantitativen Anlagen die Identifizierung einer Reihe von „Faktoren“, die zur Vorhersage von Preisbewegungen auf den Märkten verwendet werden konnten.
- Auf dem Weg von der Theorie zur Praxis erzielte Quant Investing beachtliche Erfolge sowohl bei den Anlagerenditen als auch beim Vermögenswachstum.
- Eine wichtige Lektion aus der Quant-Entwicklung nach den 2000er Jahren ist die Notwendigkeit einer Diversifizierung sowohl zwischen Faktoren wie Value, Size und Momentum als auch innerhalb dieser Faktoren. Anstatt sich auf eine Formulierung für jeden Faktor zu verlassen, müssen die Strategien mehrere Formulierungen für jeden Faktor enthalten.
- Im 21. Jahrhundert profitierten Quant-Anlagen von drei eng miteinander verbundenen revolutionären Entwicklungen, und zwar in puncto Rechenleistung, Daten und Algorithmen. Alle drei sind noch im Gange und ermöglichen es Quant-Managern, eine Vielzahl von Informationen zu sammeln und nutzen.
- Die gleichzeitige Revolution von Rechenleistung, Big Data und ausgefeilteren Algorithmen zeigt große Wirkung: maschinelles Lernen und andere KI-Tools lassen nun Analysen zu, die in der Vergangenheit undenkbar waren.
Unten weiterlesen oder Artikel herunterladen
Quantitatives Investieren (Quant) umfasst eine breite Palette von Strategien, die Datenanalyse, mathematische Modellierung und automatisierte Transaktionen zur Renditegewinnung nutzen. In diesem Beitrag erörtern wir, wie sich Quant-Strategien durch stetige technologische Verbesserung in den letzten Jahrzehnten weiterentwickelt haben, und räumen mit einigen der Mythen auf, die sich um sie ranken.
Im Lauf von etwa einem Jahrhundert entwickelte sich Quant von einem rein theoretischen Konzept zu einem praktischen Ansatz für Investitionen an den Finanzmärkten. Ideen, die einst auf die akademische Welt beschränkt waren, wurden in zahlreichen Anlagestrategien umgesetzt, oft mit bemerkenswertem Erfolg.
Auf dem Weg dorthin gab es aber auch einige prominente Misserfolge. Dies hat zu einer gewissen Skepsis und sogar Zynismus gegenüber quantitativen Strategien geführt.
Doch Fortschritte bei der Rechenleistung und eine außerordentliche Fülle von Daten ermöglichen es den Quant-Managern von heute, Erkenntnisse zu gewinnen, die früher unvorstellbar waren. Jeder Tag scheint Quant-Prozesse mit einer Fülle neuer Daten zu versorgen. Und da neue Datensätze eine ausreichende Reife erreichen, um echte Vorhersagekraft zu bieten, machen Quant-Investing-Strategien außerordentliche Fortschritte in ihrer Reichweite und ihrem Umfang.
Teil 1: Ursprünge
Vor 125 Jahren wurde mit der Veröffentlichung von Louis Bacheliers Theorie der Spekulation im Jahr 1900 der Grundstein für quantitatives Investieren gelegt. In seiner Doktorarbeit an der Universität Paris vertrat Bachelier die bahnbrechende Erkenntnis, dass sich mathematische Prinzipien sinnvoll auf die Finanzmärkte anwenden lassen.
Bacheliers Arbeit ebnete den Weg für die Theorien der quantitativen Finanzwirtschaft und schließlich für das quantitative Investieren: die Anwendung mathematischer, statistischer und modellierender Techniken mit dem Ziel, überdurchschnittliche Anlagerenditen zu erzielen.
Zu den theoretischen Meilensteinen gehörten die Entwicklung der „Hypothese der effizienten Märkte“, Harry Markowitz‘ Portfolio Selection, die den Einsatz mathematischer Modelle zur Optimierung von Portfolios etablierte, Fischer Blacks und Myron Scholes‘ The Pricing of Options and Corporate Liabilities, das den Einsatz von Derivaten zur Risikominderung revolutionierte, sowie Eugene Famas und Kenneth Frenchs Arbeit über Faktoren, die tiefere Einblicke in die Triebkräfte der Aktienrenditen ermöglichte.
Treibende Kräfte
Was waren die treibenden Kräfte hinter der Entwicklung von Quant Investing? Bei der Betrachtung der Entstehungsgeschichte können wir auf die üblichen Innovationsquellen der Anlagetheorie und -praxis verweisen: die Chance, neue Vorteilsquellen zu identifizieren und nutzen.
Eine Überlegung dabei war sowohl das Potenzial für wiederholbare, regelbasierte Entscheidungen zur Verbesserung der Portfolioergebnisse als auch das Potenzial zur Verringerung oder Beseitigung von Verhaltensfehlern.
Nachdem die Rechenleistung später, zunahm, wurden auch andere Vorteile deutlich. Die Verwendung immer größerer und vollständigerer Datensätze in Verbindung mit KI-gestützter Mustererkennung verschaffte den Portfoliomanagern einen analytischen Vorsprung. Ebenso bietet eine schnellere Entscheidungsfindung nun einen Handelsvorteil.
Von der Theorie zur Praxis
Die praktische Anwendung der quantitativen Wissenschaft nahm ab den späten 1960er Jahren Fahrt auf, unterstützt durch Verbesserungen der Rechenleistung, die die Analyse großer Datensätze und das Backtesting von Portfoliostrategien erleichterten. Quant-Pioniere wie Edward Thorp und Victor Niederfhoffer gingen von der Theorie zur Marktpraxis über und legten Fonds auf, bei denen die von ihnen in der Wissenschaft entwickelten quantitativen Methoden zum Einsatz kamen.
Diesen Erfolgen schlossen sich in den 1980er Jahren weitere Pionierfonds an, wie etwa die von Renaissance Technologies und D.E. Shaw. Diese Fonds konnten sich auf weitere Verbesserungen der Rechenleistung stützen, die den Hochfrequenzhandel ermöglichten. Auch Investmentbanken stiegen in das Geschäft ein: Goldman Sachs, JP Morgan und Morgan Stanley richteten dedizierte Quant-Desks ein.
Die Geburt des faktorbasierten Investierens
Gegen Ende des 20. Jahrhunderts war eine der wichtigsten Entwicklungen im Bereich des quantitativen Investierens die Identifizierung einer Reihe von „Faktoren“, die zur Vorhersage von Kursbewegungen an den Märkten verwendet werden konnten. In den 1960er Jahren hatten verschiedene Wissenschaftler das Capital Asset Pricing Model (CAPM) entwickelt, das sich auf einen einzigen Faktor stützte: das Marktrisiko. Da das CAPM jedoch auf der Annahme beruhte, dass die Märkte effizient sind (treffend als „Hypothese der effizienten Märkte“ bezeichnet), hatte es Schwierigkeiten, verschiedene Aspekte der Wertentwicklung von Vermögenswerten zu erklären.
Stephen A. Ross‘ Arbitrage-Preistheorie, die er 1976 vorstellte, stellte den CAPM-Standard in Frage. Ross schlug die Verwendung einer breiten Palette verschiedener Faktoren vor – diese Komplexität machte die Umsetzung der Theorie jedoch schwierig.
Anfang der 1990er Jahre schlugen Eugene Fama und Kenneth French ein Drei-Faktoren-Modell vor, das Größe und Wert als zwei Faktoren identifizierte, die neben dem Marktrisiko zur angemessenen Bewertung von Vermögenswerten verwendet werden können. Die herkömmlichen Maßstäbe für das Marktrisiko berücksichtigen nicht die Tatsache, dass kleinere Unternehmen tendenziell besser abschneiden als größere und dass billigere Unternehmen ebenfalls besser abschneiden als ihre teureren Konkurrenten. Daher war das Drei-Faktoren-Modell für Quant-Investoren interessant, die nach einer differenzierteren Methode zur Erfassung der Aktienperformance suchten.
Andere gingen noch einen Schritt weiter und fügten vor allem die Dynamik als vierten Faktor hinzu. Im Jahr 2015 aktualisierten Fama und French ihr Modell auf fünf Faktoren und fügten den ursprünglichen drei Faktoren die operative Rentabilität und Investitionen hinzu.
Die Tatsache, dass Fama zuvor ein langjähriger Verfechter der Hypothese der effizienten Märkte gewesen war, war ebenfalls von Bedeutung. Die Untergrabung der Effizienzmarktorthodoxie durch eine ihrer Koryphäen öffnete denjenigen, die sich für die Suche nach Fehlbewertungen auf den Märkten interessierten, den Weg in die akademische Forschung und machte eine breitere akademische Untersuchung von Quant-Strategien gangbar.
A selective chronology of quant
- 1900 – Louis Bachelier’s Theory of Speculation
- 1952 – Harry Markowitz’s Portfolio Selection
- 1960s – Development of the capital asset pricing model (CAPM)
- 1966 – Victor Niederhoffer’s Market Making and Reversal on the Stock Exchange
- 1969 – Edward O. Thorp launches Convertible Hedge Associates
- 1970s – Introduction of computerized trading to the New York Stock Exchange
- 1973 – Fischer Black and Myron Scholes’s The Pricing of Options and Corporate Liabilities
- 1976 – Stephen A Ross’s The Arbitrage Theory of Capital Asset Pricing
- 1980 – Victor Niederhoffer launches the NCZ Commodities fund
- 1982 – Founding of Renaissance Technologies
- 1984 – Breiman et al’s Classification and Regression Trees (CART)
- Mid-80s – Major investment banks set up quant desks
- 1988 – Founding of D.E. Shaw
- 1992 – Eugene Fama and Kenneth French’s three-factor model
- 1998 – Collapse of Long-Term Capital Management
- 2007 – The ‘quant quake’
- 2008 – The Global Financial Crisis
- 2000s – Ongoing revolutions in computing power, data storage and algorithms
- 2010s – Increasing use of machine learning
Teil 2: Wachstumsschmerzen und Lernerfolge
Als Quant von der Theorie in die Praxis überging, erzielte es sowohl bei den Anlagerenditen als auch beim Vermögenswachstum beachtliche Erfolge. Aber es gab auch einige aufsehenerregende Misserfolge: einige davon so auffällig, dass sie bis heute das Meinungsbild über Quant prägen.
Seit den 1990er Jahren basierten Quant-Strategien in der Regel auf Modellen, die drei oder vier Faktoren berücksichtigten. Diese Strategien entwickelten sich im Laufe der Zeit weiter, vor allem durch Enhanced Indexing, bei dem Quant-Techniken mit dem Ziel eingesetzt werden, die Renditen passiver Indexstrategien zu steigern. Dabei werden beispielsweise faktorbasierte Daten verwendet, um die Allokationen einer Indexnachbildungsstrategie anzupassen.
Schließlich hatten diese Strategien ein verwaltetes Vermögen in Billionen-Dollar-Höhe angesammelt. Sie verfügten über enorme Kapazitäten und waren in der Lage, beständige Erträge zu erzielen.
Hierbei ist es wichtig zu beachten, dass nicht alle Quant-Strategien eine erweiterte Indexierung beinhalteten. Vor allem Hedge-Fonds setzten oft ganz andere Quant-Ansätze ein. Ein Beispiel dafür ist Long-Term Capital Management (LTCM), ein Hedge-Fonds, der eine Reihe komplexer quantitativer Techniken einsetzte, zunächst mit großem Erfolg. Im Jahr 1998 jedoch brach LTCM nach dem Ausfall der russischen Staatsschulden aufgrund seiner stark fremdfinanzierten Positionen zusammen. Dieses Ereignis erschütterte das globale Finanzsystem und machte eine Rettungsaktion der Federal Reserve Bank of New York erforderlich. Der Scheitern von LTCM hatte zwei Hauptursachen: ein übermäßiger Einsatz von Leverage (Schulden), um die Renditen zu steigern, und Annahmen, die auf Daten ohne ausreichende Historie basierten. Dies waren zwei wichtige Lektionen für quantitative Manager auf dem Weg ins 21. Jahrhundert, aber fast ein Jahrzehnt nach dem Zusammenbruch von LTCM sollte sich ein anderes herausragendes Marktereignis nachhaltig negativ auswirken.
Das „Quant Quake“
Das so genannte „Quant Quake“ ereignete sich im August 2007. Seine Ursprünge waren damals etwas rätselhaft, aber inzwischen hat sich ein Konsens darüber herausgebildet, dass schwere Verluste bei einem großen Quant-Fonds diesen zwangen, seine Bestände schnell zu liquidieren, um die Rücknahmen zu bedienen. Wie beim Zusammenbruch von LTCM spielte auch bei dieser Krise die Hebelwirkung eine wichtige Rolle. Doch dieses Mal wurden die Auswirkungen der übermäßigen Hebelwirkung durch den Herdeneffekt in einer bestimmten Gruppe von Quant-Fonds und die daraus resultierende Ansteckung verstärkt.
Die fraglichen Fonds setzten statistische Arbitrage ein – ein Ansatz, der darauf abzielt, aus kleinen Preisabweichungen zwischen ähnlichen Wertpapieren Geld zu machen. Statistische Arbitrage, oder „Stat Arb“, war sehr erfolgreich, aber ihr Erfolg hatte sie populär gemacht, was zu sinkenden Erträgen führte. Um diese geringeren Renditen zu verstärken und ihre Strategien rentabel zu halten, begannen Fondsmanager, in erheblichem Umfang Leverage einzusetzen.
Dies bedeutete, dass viele sehr ähnliche Strategien sowohl in dieselben Wertpapiere investiert als auch stark gehebelt waren, was sie besonders anfällig für Ansteckungseffekte machte, wenn einer ihrer Konkurrenten seine Positionen schnell auflösen musste.
Da viele Fonds statistische Arbitrage mit anderen Quant-Strategien kombinierten, griff der Run auf „Stat Arb“ auch auf andere Teile des Quant-Universums über. Die risikoaversen Quant-Strategien begannen abzuverkaufen, was eine Abwärtsspirale in Gang setzte. Das Ereignis deckte ein übermäßig fremdfinanziertes Ökosystem auf und war äußerst schmerzhaft für Manager und Anleger, die gezwungen waren, am Tiefpunkt zu verkaufen.
Für diejenigen, die in der Lage waren, die Krise auszusitzen, unterschied sie sich jedoch kaum von anderen kurzfristigen Marktphasen. Die Kurse waren stark gefallen, aber sie erholten sich bald nachdem Anleger wieder zu kaufen begannen. Für viele Quant-Manager bestand das „Beben“ also nur aus ein paar nervenaufreibenden Tagen. Die Lehre daraus war, dass man sich nicht auf eine Hebelwirkung verlassen sollte, um geringere Erträge auszugleichen.
Die globale Finanzkrise
Im Gegensatz zum „Quant Quake“ hat die globale Finanzkrise von 2008 tiefer sitzende Schwächen der Quant-Prozesse aufgedeckt. Während das Beben größtenteils auf eine zu große Hebelwirkung zurückzuführen war, zeigte die Finanzkrise, dass die von Quant-Managern verwendeten Faktoren weniger robust waren als angenommen.
Für viele Quant-Manager war das Platzen der Internetblase im Jahr 2000 relativ schmerzlos verlaufen. Quantitative Strategien neigten dazu, sich auf Value zu konzentrieren, und ungeliebte Value-Aktien hatten sich beim Platzen der Dotcom-Blase gut geschlagen. Doch die Finanzkrise bewies das Gegenteil. Value-Aktien wie Finanzwerte und Energietitel hatten hohe Gewinne erwirtschaftet, die dann mit dem Einsetzen der Krise wegbrachen. Anstatt sich wie im Jahr 2000 als widerstandsfähig zu erweisen, waren Value-Aktien am stärksten von der Finanzkrise betroffen.
Dies war für viele Quant-Manager eine augenöffnende Erfahrung. Sie zeigte, dass Marktzusammenbrüche nicht immer auf dieselbe Weise ablaufen. Bei der Finanzkrise führte das Vertrauen in billige Aktien zu schlechten Ergebnissen. Stattdessen mussten die Portfolios besser diversifiziert werden, um widerstandsfähiger zu sein: Das Engagement im Value-Faktor war kein Allheilmittel für jede Krise.
Gewonnene Erkenntnisse
Eine Lehre aus der Finanzkrise war, dass eine Diversifizierung sowohl zwischen Faktoren wie Value, Size und Momentum als auch innerhalb dieser Faktoren erforderlich ist. Anstatt sich auf eine Formulierung für jeden Faktor zu verlassen, sollten die Strategien mehrere Formulierungen für jeden Faktor enthalten.
Ein weiterer Punkt war, dass Quant-Manager bei der Suche nach Fehlbewertungen auf den Märkten nicht nur auf die üblichen Informationsineffizienzen achten sollten. Verhaltensfaktoren, die eher von menschlichen Emotionen als von harten Informationen abhängen, spielen ebenfalls eine signifikante Rolle.
Verhaltensbedingte Fehlbewertungen erklären zum Beispiel den Momentum-Faktor. Anleger sind oft sehr daran interessiert, ihre Gewinner in einem steigenden Markt zu verkaufen, weil es sich gut anfühlt, wenn sich ein Gewinn herauskristallisiert; umgekehrt zögern sie aus Verlustaversion, Aktien zu verkaufen, die sich schlecht entwickelt haben. Daher halten viele Anleger zu lange an „Verliereraktien“ fest, was eine Abwärtsdynamik erzeugt, indem es die Korrekturen der Aktienkurse verlängert.
Quant-Manager können also davon profitieren, indem sie Aktien von willigen Verkäufern aufkaufen, wenn die Kurse noch weiter steigen können, und indem sie Aktien, die allmählich auf ein angemessenes Niveau fallen, leerverkaufen. Durch die Identifizierung solcher Verhaltensmuster können Quant-Manager sowohl vom irrationalen Anlegerverhalten als auch vom rationalen Verhalten profitieren, das Faktoren wie Value zugrunde liegt.

Teil 3: Revolutionen
Viele Anleger machten während des „Quant Quake“ und der Finanzkrise schlechte Erfahrungen. Doch die daraus resultierende Abneigung gegen Quant-Strategien übersieht die enormen Fortschritte, die in den letzten Jahren gemacht wurden, u.a. auch weiterhin mit der exponentiellen Beschleunigung der Rechenleistung.
Im 21. Jahrhundert profitierte Quant Investing von drei eng miteinander verbundenen revolutionären Entwicklungen in puncto Rechenleistung, Daten und Algorithmen. Alle drei sind noch im Gange und ermöglichen es den Quant-Managern, eine überwältigende Fülle von Informationen zu sammeln und nutzen.
Die Revolution der Rechenleistung
Eine der wichtigsten Entwicklungen auf dem Gebiet des Quant Investings in den letzten Jahrzehnten war die Verfügbarkeit schnellerer Chips und besserer Serverarchitekturen.
In den späten 1990er und frühen 2000er Jahren waren Quant-Manager auf riesige und sündhaft teure Server für Simulationen und Optimierungen angewiesen. Diese Maschinen verfügten über die für die damalige Zeit modernsten Prozessoren und kosteten über eine halbe Million Dollar. Aber sie hatten weniger Rechenleistung als ein Smartphone. Sie liefen also langsam, was bedeutete, dass die Modelle, mit denen sie arbeiteten, begrenzt waren und ihre Simulationen relativ einfach waren. Jede zentrale Recheneinheit (CPU) musste auf einer eigenen Platine untergebracht sein und hatte nur einen einzigen Kern.
Mit dem Moore’schen Gesetz¹ änderte sich jedoch die Situation dank der kontinuierlichen Innovation in der Halbleiterindustrie. Dadurch konnten CPUs mit mehreren Kernen ausgestattet werden, und es wurden höhere Taktraten, eine größere Speicherdichte und eine bessere Energieeffizienz möglich. Kurz gesagt, Computer können viel mehr und viel schneller arbeiten.
Infolgedessen haben die Computer, die Quant-Manager heute verwenden, höhere Chipgeschwindigkeiten, mehrere Kerne pro CPU und mehrere CPUs auf jeder Verarbeitungsplatine. Diese Fortschritte bedeuten, dass tausende verschiedener Portfolios gleichzeitig getestet werden können. Durch das parallele Rechnen erhalten Quant-Manager die benötigten Antworten viel schneller als in der Vergangenheit, was die Effizienz ihrer Prozesse erheblich verbessert.
Die Revolution der Daten
Auch in puncto Daten gab es eine Revolution, oder besser gesagt, eine Explosion. Früher war die Speicherung von Daten im Umfang von einem Gigabyte teuer. Heute verfügt jedes Handy über Terabytes. Und mit den viel niedrigeren Speicherkosten wächst auch das Bewusstsein für die Bedeutung von Daten für alle Bereiche der Wirtschaft. Im Jahr 2006 sagte der britische Mathematiker Clive Humby, dass „Daten das neue Öl sind“; seitdem hat die zunehmend digitale Art und Weise, in der die meisten Unternehmen geführt werden, das Sammeln von Daten wesentlich erleichtert.
Diese Veränderungen haben das Datengeschäft revolutioniert. Mehr Daten als je zuvor werden gesammelt. Traditionelle Datensätze sind zwar nach wie vor verfügbar, aber wir haben jetzt Zugriff auf eine ständig wachsende Anzahl neuer und wesentlich fundierterer Datensätze. Viele davon waren vor 20 Jahren noch undenkbar, zum Beispiel Echtzeitaufzeichnungen jeder Kreditkartentransaktion oder Satellitenfotos von jedem Parkplatz der Welt.
Auch im Bereich der Computeranalyse und des maschinellen Lernens – derjenigen Untergruppe der KI, die es Computermodellen ermöglicht, sich ohne explizite Programmierung an Situationen anzupassen – haben wir rasante Fortschritte gemacht. Auf die neuen Datensätze angewendet, gewähren diese neuen Technologien Einblicke, die menschliche Analysten einfach nicht erkennen können. Menschen können zum Beispiel nicht alle geparkten Autos auf der ganzen Welt zählen. Aber Maschinen können es – und sie können ihre Zahlen und Prognosen jeden Tag aktualisieren. Und Echtzeitdaten, z. B. die Anzahl der Lastwagen, die die Fabriken eines Unternehmens verlassen, bieten Informationen, die von den Unternehmen selbst mit eher geringer Wahrscheinlichkeit zu erhalten sind.
Eine Herausforderung bei diesen neuen Datensätzen liegt in ihrem kürzeren Zeitrahmen. Wir verfügen beispielsweise über mindestens ein Jahrhundert an Aktienkursdaten, aber nur 10 oder 15 Jahre an neueren Datensätzen wie Satelliteninformationen über Parkplätze.
Für einige quantitative Strategien ist das kein Problem. Bestimmte Verfahren stützen sich auf sehr kurzfristige Signale, um Handelsmöglichkeiten zu erkennen – Signale, die nur wenige Sekunden lang sein können. Viele Quant-Manager haben jedoch einen längeren Zeithorizont und möchten eine Vielzahl von Daten zur Entscheidungsfindung heranziehen. Sie wollen nicht davon ausgehen, dass Statistiken, die nur ein paar Jahre abdecken, eine perfekte Prognose liefern. Stattdessen bevorzugen sie ganze Marktzyklen. Doch mit der Zeit sammeln diese neuen Datensätze genug Historie an, um wirklich nützlich zu werden. Dies wird natürlich weiter zunehmen, sodass die Modelle auf einen ständig wachsenden Vorrat an aussagekräftigen Datensätzen zugreifen können.
Die Revolution der Algorithmen
Eine dritte Revolution ereignete sich bei den Algorithmen – den Rechenverfahren, die Daten in nützliche Erkenntnisse und Vorhersagen umwandeln. Einige der Algorithmen, auf die sich Quant-Manager heute verlassen, haben ihren geistigen Ursprung in den 1970er Jahren oder sogar noch früher. Ihre heutigen Entsprechungen sind jedoch dank kontinuierlicher Innovationen im Bereich der Algorithmen und der höheren Leistungsfähigkeit der Computer wesentlich effektiver geworden. Diese Fortschritte haben zu Ansätzen geführt, die sich besonders gut für den Umgang mit großen und „verrauschten“ realen Datensätzen eignen.
Entscheidungsbäume sind ein Beispiel dafür. Diese Algorithmen, die ein enormes Potenzial für prädiktive Modellierung aufweisen, wurden mit der Veröffentlichung von Clarification and Regression Trees (CART) von Leo Breiman et al. im Jahr 1984 bekannt.² Aber die in CART skizzierte, im Entstehen begriffene Technologie wurde seither durch Fortschritte bei der Rechenleistung weiter verbessert. Und da die „Rechenleistung“ zugenommen hat, haben Quant-Wissenschaftler die Vorteile genutzt und anspruchsvollere Anpassungen der ursprünglichen Algorithmen entwickelt. In den letzten Jahren wurden Entscheidungsbäume erfolgreich in einer Reihe von Branchen eingesetzt und haben sich als leistungsfähiges und transparentes Mittel zur Ermittlung von Investitionsmöglichkeiten erwiesen.
Ein weiteres Beispiel ist das neuronale Netz – ein Modell des maschinellen Lernens, das auf dem menschlichen Gehirn basiert und hoch entwickelte Problemlösungsfähigkeiten bietet. Obwohl die Konzepte der neuronalen Netze und der KI bereits in den 1960er Jahren entwickelt wurden, kamen sie jahrzehntelang nicht über dieses konzeptionelle Stadium hinaus. Im Jahr 2012 jedoch beschleunigte sich die Entwicklung tiefer neuronaler Netze erheblich, was 2017 zur Entwicklung der grundlegenden Technologie für generative KI führte. Die daraus resultierenden neuronalen Netze sind erstaunlich leistungsfähig, auch wenn ihre Funktionsweise im Vergleich zu Entscheidungsbäumen undurchsichtiger ist.
Was ist der Vorteil?
Die gleichzeitige Revolution von Rechenleistung, Big Data und ausgefeilteren Algorithmen zeigt große Wirkung: maschinelles Lernen und andere KI-Tools lassen nun Analysen zu, die in der Vergangenheit undenkbar waren.
Dabei darf man nicht vergessen, dass die Manager, die Quant-Prozesse überwachen, sowohl Investoren als auch Datenexperten und Mathematiker sind. Daher nutzen sie Daten oft auf ganz ähnliche Weise wie traditionelle Investmentmanager, nur viel schneller und in viel größerem Umfang.
Hinzu kommt, dass viele der von Quant-Managern verwendeten Modelle auf den Fundamentaldaten von Aktien oder anderen intuitiven Aspekten von Investitionen beruhen. Big Data bedeutet nicht notwendigerweise das große Ganze, sondern kann auch meinen, dass man sich auf einzelne Wertpapiere in außerordentlichem Detail konzentriert.
Die detaillierten Eindrücke, die Quant-Manager in ihre Entscheidungen einfließen lassen, können aus einer Vielzahl von Daten gewonnen werden, einige davon weit von den traditionellen numerischen Daten entfernt. So kann die Marktstimmung heute anhand von SEC-Filings, Newsfeeds, Pressemitteilungen, Unternehmensberichten und sogar Telefonkonferenzen gemessen werden. Gleichzeitig können Trends bei Online-Aktivitäten wie Websuchen und Transaktionen wertvolle Datensätze liefern, ebenso wie GPS-Daten über Lieferketten und Satellitenbilder von landwirtschaftlichen Flächen.
Sowohl mit traditionellen als auch mit alternativen Datensätzen können Quant-Manager mit den heutigen Tools nützliche Informationen aus riesigen Datenmengen extrahieren. Die Informationen können genutzt werden, um einen erheblichen Vorsprung bei einer kleinen Gruppe von Aktien oder einen kleinen Vorteil bei einer riesigen Anzahl von Aktien zu erzielen.
Die Verbesserung von Qualität und Quantität der Daten ermöglicht die Entwicklung neuer Techniken. Dank des maschinellen Lernens können die Modelle verbessert werden, da sie die Erfolge und Misserfolge der Vergangenheit mit einbeziehen. Dies spiegelt die Erfahrung wider, die ein traditioneller Bottom-up-Manager durch jahrelange Marktpräsenz erwerben kann, allerdings mit dem entscheidenden Unterschied, dass ein quantitatives Modell nicht lange im Geschäft sein muss, wenn es Zugang zu ausreichenden Mengen an rückwärtsgerichteten Daten aus den entsprechenden Zeiträumen hat.
Heutzutage liegt der Schwerpunkt weit weniger auf einigen wenigen Faktoren oder einem bestimmten Stil. Auch wenn einige Quant-Manager immer noch auf diese rudimentäreren Ansätze zurückgreifen, haben sich die führenden Unternehmen weiterentwickelt. Stattdessen wird jede Aktie anhand vieler verschiedener Faktoren bewertet.

MDT: Die menschliche Komponente
Oft herrscht der Eindruck vor, dass Quant Investing eine „Black Box“ ist – ein mysteriöser Prozess, der sich nicht leicht erklären lässt. Und für einige Quant-Manager mag das eine zutreffende Darstellung sein.
Neuronale Netze, die beispielsweise bei einigen Strategien zum Einsatz kommen, haben eine inhärente Undurchsichtigkeit zur Folge: Sie zeigen ihre Funktionsweise nicht in der Weise, wie es andere quantitative Ansätze tun. Aber oft entsteht der Eindruck einer „Blackbox“ einfach deshalb, weil die Quant-Manager die genauen Einzelheiten ihrer proprietären Prozesse nicht mitteilen. Darin unterscheiden sie sich nicht von den traditionellen Bottom-up-Managern, die ihre eigenen Verfahren zur Aktienauswahl in der Regel geheim halten.
Ein weiterer Aspekt ist einfach die notwendige Komplexität quantitativer Ansätze. Für Nicht-Mathematiker können quantitative Techniken oft abschreckend wirken. Doch Komplexität ist nicht gleichbedeutend mit Undurchsichtigkeit. Viele quantitative Modelle sind völlig transparent. Die auf Entscheidungsbäumen basierenden Modelle von MDT beispielsweise ermöglichen es potenziellen Anlegern, genau zu sehen, wie unsere Manager zu ihren Prognosen und Anlageentscheidungen kommen.
Letztendlich verwenden wir, wie traditionelle Bottom-up-Manager, Bottom-up-Daten in Kombination mit technischen Daten (beide sind „fundamental“ für Aktienkursbewegungen). Wir wissen, welche Daten sich auf die Aktien, in die wir investieren, auswirken werden, und darin unterscheiden wir uns nicht von anderen Investmentmanagern.
Where we differ from quants of old is in the breadth and depth of data we can analyze, the speed at which we can process it, and the range of stocks to which we can apply the resultant insights. In our ever-more complex world, we believe this data-driven approach is increasingly valuable.
1 The observation that the number of transistors on a computer chip doubles every two years.
3 Classification and Regression Trees | Leo Breiman, Jerome Friedman, R.
BD015904