Schalte die Digest des Herausgebers kostenlos frei
Roula Khalaf, Herausgeber der FT, wählt ihre Lieblingsgeschichten in diesem wöchentlichen Newsletter aus.
Im Dezember 2021 setzte Bryan Kelly, Leiter des maschinellen Lernens bei Quant House AQR Capital Management, einen akademischen Papier, das für Aufsehen sorgte.
Die Tugend der Komplexität bei der Rückkehr Vorhersage-gemeinsam von Kelly mit Semyon Malamud und Kangying Zhou verfasst-ergab, dass komplexe maschinell-lernende Modelle besser als einfache Vorhersagen von Aktienpreisen und den Bau von Portfolios waren.
Die Feststellung war eine große Sache, weil es einem der Leitprinzipien des maschinellen Lernens widersprach, dem Vorurteile, der besagt, dass die Vorhersagekraft von Modellen schwächer ist, wenn sie über ein optimales Niveau hinauswachsen. Angesichts zu vieler Parameter zum Spielen wird ein Bot dazu neigen, seine Ausgabe in zufälligen Rauschen in den Trainingsdaten zu überwinden.
Aber Kelly und seine Mitautoren kamen zu dem Schluss, dass überraschenderweise mehr Variablen die Renditen immer verbessern. Die verfügbare Rechenleistung ist die einzige Grenze. Hier ist ein Video von Kelly, das der Wharton School im Jahr 2023 erklärt, dass dieselben Prinzipien, die für die Multi-Milliarden-Parameter-Modelle gelten, die ChatGPT und Claude AI betreiben, auch für die Genauigkeit der finanziellen Prognose.
Viele Akademiker hassten dieses Papier. Es stützt sich auf theoretische Analysen, „so eng, dass es für Finanzökonomen praktisch nutzlos ist“, sagt Jonathan Berk von Stanford Business School. Die Leistung hängt laut einigen Forschern der Oxford University von sanitären Daten ab, die in der realen Welt nicht verfügbar wären. Laut Daniel Buncic von der Stockholm Business School übertreffen die größeren Modelle nur, weil sie Maßnahmen auswählen, die kleinere Modelle benachteiligen.
Diese Woche hat sich Stefan Nagel von der University of Chicago dem Stapel angeschlossen. Sein Papier – scheinbar tugendhafte Komplexität als Vorhersage – argumentiert, dass das „atemberaubende“ Ergebnis von Kelly et al. . .
. . . Ein gewichteter Durchschnitt der früheren Renditen in der Vergangenheit, wobei die Gewichte bei Perioden am höchsten sind, deren Prädiktorvektoren dem aktuellen ähnlich sind.
Nagel stellt die zentrale Schlussfolgerung der Zeitung in Frage, dass eine sehr komplexe Box gute Vorhersagen auf der Grundlage von nur einem Jahr der Aktienleistungdaten machen kann.
Der Befund war in einem KI -Konzept verwurzelt, das als Doppelabstieg bezeichnet wird und der besagt, dass Deep -Lern -Algorithmen weniger Fehler machen, wenn sie variablere Parameter als Trainingsdatenpunkte aufweisen. Ein Modell mit einer großen Anzahl von Parametern bedeutet, dass es perfekt in die Trainingsdaten passen kann.
Laut Kelly et al. Kann dieser allumfassende BloB-Ansatz zur Musteranpassung die prädiktiven Signale in sehr lauten Daten aussuchen, wie z. B. ein einziges Jahr des US-Aktienhandels.
Müll, sagt Nagel:
In kurzen Trainingsfenstern bedeutet Ähnlichkeit lediglich Aktualität, sodass die Prognose auf einen gewichteten Durchschnitt der jüngsten Renditen reduziert – im Wesentlichen eine Impulsstrategie.
Entscheidend ist, dass der Algorithmus keine Impulsstrategie berät, weil er erfasst hat, dass er profitabel sein wird. Es hat nur eine Wiederholungserscheinung.
Der Bot „durchschnittlich die letzten Rückkehrer im Trainingsfenster durchschnittlich durchschnittlich, was den Prädiktorvektoren entspricht, die dem aktuellen am ähnlichsten sind“, sagt Nagel. Es lernt nicht aus den Trainingsdaten, ob Dynamik oder Umkehrendynamik vorhanden sind; es führt mechanisch eine Impuls-ähnliche Struktur, unabhängig vom zugrunde liegenden Renditeprozess. «
Die Outperformance in der Studie 2021 spiegelt „somit den zufälligen historischen Erfolg der volatilitätszeitimierten Impuls wider, nicht vorhersageten Informationen, die aus den Trainingsdaten extrahiert wurden“, schließt er.
Wir überspringen a viel des Details. Jeder Leser, der über die Mechanik des Kernel -Skalings durch zufällige Fourier -Funktionen informiert ist, wird von einem Autor besser bedient, der weiß, wovon er spricht. Unser Hauptinteresse liegt in AQR, dem Quant von 136 Mrd. USD-Under-Management, der seine akademischen Wurzeln mit Stolz trägt.
Kelly fungiert als Frontmann von AQR für bessere Investitionen durch maschinelles Lernen: Sein „Tugend der Komplexität“ befindet sich auf der AQR -Website, zusammen mit einigen umsichtigen Kommentaren seines Chefs Cliff Asness über den Wert der maschinellen generierten Signale.
Die Wilde von Kelly et al – einschließlich eines Professors an der Universität von Chicago, sowohl sein als auch von Alma Mater von Asness – ist kein großartiger Look. Aber da unkomplizierte Momentum -Strategien historisch unter den Dingen gehörten, die AQR am besten kann, ist diese Demystifizierung des akademischen KI -Hype für Investoren keine schlechte Sache.