Sostenibilità. Facciamo sul serio.
Report

A history of quant

Come siamo arrivati da là a qua

Insight
18 June 2025 |
Macro
Gli investimenti quantitativi (quant) comprendono un'ampia gamma di strategie che utilizzano l'analisi dei dati, la modellazione matematica e transazioni automatizzate per generare rendimento. In questo articolo esaminiamo l'evoluzione delle strategie quantitative negli ultimi decenni, analizziamo il modo in cui sono state potenziate dai progressi tecnologici e sfatiamo alcuni miti che le circondano.
A history of quant

Sintesi

  • Sono passati 125 anni da quando sono state gettate le basi dell’investimento quantitativo, con la pubblicaione nel 1900 del testo di Louis Bachelier Theory of Speculation.
  • L’applicazione pratica degli studi quantitativi è decollata a partire dalla fine degli anni ’60, grazie ai miglioramenti della potenza di calcolo che hanno facilitato l’analisi di grandi insiemi di dati e il back-testing delle strategie di portafoglio.
  • Verso la fine del 20° secolo, uno sviluppo chiave dell’investimento “quant” è stato l’identificazione di una serie di “fattori” che potevano essere utilizzati per prevedere i movimenti dei prezzi sui mercati.
  • Passando dalla teoria alla pratica, il Quant Investing ha ottenuto risultati sorprendenti sia per quanto riguarda i rendimenti degli investimenti sia per quanto riguarda la crescita degli asset.
  • Le lezioni apprese dallo sviluppo del Quant dopo il 2000 sono la necessità di una diversificazione sia tra fattori come value, size e momentum che al loro interno. Piuttosto che affidarsi a una sola formulazione per ogni fattore, le strategie devono avere diverse formulazioni per ciascuno di essi.
  • Nel 21° secolo, l’investimento quantitativo ha beneficiato di tre rivoluzioni strettamente interconnesse: potenza di calcolo, dati e algoritmi. Tutte e tre sono ancora in corso, consentendo ai quanti di raccogliere – e sfruttare – una serie impressionante di informazioni.
  • La rivoluzione combinata di potenza di calcolo, big data e algoritmi più sofisticati è incredibilmente potente, con l’apprendimento automatico e altri strumenti legati all’IA che forniscono ai “quants” spunti impensabili in passato.

Continue below or download the report

Gli investimenti quantitativi (quant) comprendono un’ampia gamma di strategie che utilizzano l’analisi dei dati, la modellazione matematica e le transazioni automatizzate per generare rendimenti. In questo articolo, analizziamo l’evoluzione delle strategie quantitative negli ultimi decenni, esploriamo come siano state potenziate dai progressi tecnologici e sfatiamo alcuni dei miti che le circondano.

Nel corso di oltre un secolo, la teoria quantitativa si è evoluta da un concetto puramente teorico a un approccio pratico agli investimenti nei mercati finanziari. Idee che un tempo erano confinate al mondo accademico sono state implementate da numerose strategie di investimento, spesso con notevole successo.

Lungo il percorso, ci sono stati anche alcuni fallimenti di alto profilo. Ciò ha portato a un certo scetticismo e persino a un certo cinismo nei confronti delle strategie quantitative.

Ma i progressi nella potenza di calcolo e una straordinaria abbondanza di dati consentono ai manager quantitativi di oggi di ottenere insight prima inimmaginabili. Ogni giorno sembra fornire ai processi quantitativi una grande quantità di nuovi dati. E man mano che i nuovi set di dati raggiungono una maturità sufficiente a offrire un reale potere predittivo, gli investimenti quantitativi stanno compiendo passi da gigante in termini di portata.

Parte prima: le origini

Sono trascorsi ormai 125 anni da quando furono gettate le basi degli investimenti quantitativi, con la pubblicazione della Teoria della speculazione di Louis Bachelier nel 1900. Nella sua tesi di dottorato presso l’Università di Parigi, Bachelier espresse un’intuizione rivoluzionaria: che i principi matematici potevano essere utilmente applicati ai mercati finanziari.

Il lavoro di Bachelier ha aperto la strada alle teorie della finanza quantitativa e, in seguito, al vero e proprio investimento quantitativo, ovvero all’uso di tecniche matematiche, statistiche e di modellizzazione con l’obiettivo di generare rendimenti in eccesso.

Tra le pietre miliari teoriche si annoverano l’evoluzione dell'”ipotesi di mercato efficiente”, la selezione del portafoglio di Harry Markowitz, che ha stabilito l’uso di modelli matematici per ottimizzare i portafogli, The Pricing of Options and Corporate Liabilities di Fischer Black e Myron Scholes, che ha rivoluzionato l’uso dei derivati per ridurre il rischio, e il lavoro di Eugene Fama e Kenneth French sui fattori, che ha fornito approfondimenti sulle forze che determinano i rendimenti azionari.

Il catalizzatore del “quant”

Quali sono stati i fattori trainanti dell’evoluzione degli investimenti quantitativi? Considerando i suoi esordi, possiamo individuare le consuete fonti di innovazione nella teoria e nella pratica degli investimenti: la percezione dell’opportunità di identificare e sfruttare nuove fonti di vantaggi.

In questo caso, un aspetto da considerare è stato il potenziale di un processo decisionale ripetibile e basato su regole per migliorare i risultati del portafoglio, così come il potenziale di ridurre o eliminare i pregiudizi comportamentali.

Successivamente, con il miglioramento della potenza di calcolo, sono emersi anche altri vantaggi. L’utilizzo di set di dati sempre più ampi e completi, insieme al riconoscimento di pattern basati sull’intelligenza artificiale, ad esempio, ha iniziato a fornire ai gestori di portafoglio un vantaggio analitico. Allo stesso modo, un processo decisionale più rapido, supportato dai miglioramenti informatici, offre ora un potenziale vantaggio nel trading.

Come in tutte le cose, il successo genera successo e il quant di oggi non ha nulla a che fare con quello di un decennio fa.

Dalla teoria alla pratica

L’applicazione pratica della ricerca quantitativa decollò dalla fine degli anni ’60, favorita dai miglioramenti nella potenza di calcolo che facilitarono l’analisi di ampi set di dati e il backtesting delle strategie di portafoglio. Pionieri della teoria quantitativa come Edward Thorp e Victor Niederfhoffer passarono dalla teoria alla pratica di mercato, creando fondi che impiegavano i metodi quantitativi sviluppati in ambito accademico.

I loro successi furono seguiti da quelli di altri fondi pionieri nel settore quantitativo negli anni ’80, come quelli gestiti da Renaissance Technologies e DE Shaw. Questi fondi poterono contare su ulteriori miglioramenti nella potenza di calcolo che consentirono il trading ad alta frequenza. Anche le banche d’investimento si unirono a loro, con società come Goldman Sachs, JP Morgan e Morgan Stanley che istituirono desk dedicati al settore quantitativo.

Nascono gli investimenti factor-based

Verso la fine del XX secolo, uno sviluppo chiave negli investimenti quantitativi fu l’identificazione di una serie di “fattori” che potevano essere utilizzati per prevedere i movimenti dei prezzi nei mercati. Negli anni ’60, diversi studiosi avevano sviluppato il Capital Asset Pricing Model (CAPM), che si basava su un unico fattore: il rischio di mercato. Tuttavia, poiché il CAPM si basava sul presupposto che i mercati fossero efficienti (giustamente chiamato “ipotesi di mercato efficiente”), faticava a spiegare vari aspetti dell’andamento dei prezzi delle attività.

La teoria dei prezzi di arbitraggio di Stephen A. Ross, formulata nel 1976, metteva in discussione lo standard CAPM. Ross proponeva l’utilizzo di un’ampia gamma di fattori diversi, sebbene questa complessità rendesse la teoria difficile da implementare.

All’inizio degli anni ’90, Eugene Fama e Kenneth French proposero un modello a tre fattori, individuando nella dimensione e nel valore due fattori che potevano essere utilizzati, insieme al rischio di mercato, per valutare gli asset in modo appropriato. Le misure convenzionali del rischio di mercato non tengono conto del fatto che le aziende più piccole tendono a sovraperformare quelle più grandi e che, allo stesso modo, le aziende più economiche tendono a sovraperformare quelle più costose. Pertanto, il modello a tre fattori attirò gli investitori quantitativi alla ricerca di un modo più articolato per catturare la performance azionaria.

Altri hanno spinto oltre, aggiungendo in particolare lo slancio come quarto fattore. Nel 2015, Fama e French hanno aggiornato il loro modello includendo cinque fattori, aggiungendo la redditività operativa e gli investimenti ai tre iniziali.

Anche il fatto che Fama fosse stato in passato un sostenitore di lunga data dell’ipotesi di mercato efficiente fu significativo. L’indebolimento dell’ortodossia del mercato efficiente da parte di uno dei suoi luminari aprì la strada alla ricerca universitaria a coloro che erano interessati a individuare anomalie di prezzo nei mercati, rendendo più praticabile un’indagine accademica più ampia sulle strategie quantitative.

Piccola cronologia del “quant”

  • 1900 – Louis Bachelier, Theory of Speculation
  • 1952 – Harry Markowitz, Portfolio Selection
  • 1960s – Sviluppo del capital asset pricing model (CAPM)
  • 1966 – Victor Niederhoffer, Market Making and Reversal on the Stock Exchange
  • 1969 – Edward O. Thorp fonda Convertible Hedge Associates
  • 1970s – Introduzione del trading computerizzato al New York Stock Exchange
  • 1973 – Fischer Black e Myron Scholes, The Pricing of Options and Corporate Liabilities
  • 1976 – Stephen A Ross, The Arbitrage Theory of Capital Asset Pricing
  • 1980 – Victor Niederhoffer fonda NCZ Commodities 
  • 1982 – Nasce Renaissance Technologies
  • 1984 – Breiman et al, Classification and Regression Trees (CART)
  • Mid-80s – Le principali investment bank aprono un quant desk
  • 1988 – Nasce D.E. Shaw
  • 1992 – Modello a 3 fattori di Eugene Fama e Kenneth French
  • 1998 – Fallimento del Long-Term Capital Management
  • 2007 – The ‘quant quake’
  • 2008 – The Global Financial Crisis
  • 2000s – Rivoluzione in corso nella potenza di calcolo, data storage e algoritmi
  • 2010s – Cresce l’uso del machine learning

Parte seconda: problemi della crescita – e insegnamenti

Con il passaggio dalla teoria alla pratica, la finanza quantitativa ha ottenuto successi straordinari sia in termini di rendimenti degli investimenti che di crescita patrimoniale. Tuttavia, si sono verificati anche alcuni fallimenti di alto profilo, alcuni dei quali così evidenti da continuare a influenzare l’opinione pubblica sulla finanza quantitativa ancora oggi.

Dagli anni ’90 in poi, le strategie quantitative si basavano tipicamente su modelli che incorporavano tre o quattro fattori. Queste strategie si sono sviluppate nel tempo, principalmente grazie all’ottimizzazione dell’indicizzazione, in cui le tecniche quantitative vengono utilizzate con l’obiettivo di amplificare i rendimenti delle strategie passive basate su indici. Ciò può comportare, ad esempio, l’utilizzo di dati basati sui fattori per aggiustare le allocazioni di una strategia che replica un indice.

Alla fine, queste strategie gestivano migliaia di miliardi di dollari di asset, disponevano di una capacità enorme e riuscivano a generare rendimenti costanti.

È importante notare che non tutte le strategie quantitative prevedevano un’indicizzazione potenziata. Gli hedge fund, in particolare, spesso impiegavano approcci quantitativi piuttosto diversi. Un esempio calzante è stato Long-Term Capital Management (LTCM), un hedge fund che ha impiegato una serie di complesse tecniche quantitative, inizialmente con grande successo. Nel 1998, tuttavia, a seguito del default della Russia sui suoi titoli di debito sovrano, LTCM è crollato a causa delle sue posizioni ad alta leva finanziaria. L’evento ha scosso il sistema finanziario globale e ha reso necessario un salvataggio organizzato dalla Federal Reserve Bank di New York. Il crollo di LTCM ha avuto due cause principali: l’eccessivo utilizzo della leva finanziaria (debito) per amplificare i rendimenti; e ipotesi basate su dati senza una storia sufficientemente storica. Queste furono due lezioni chiave per gli investitori quantitativi che si avviavano verso il XXI secolo, ma quasi un decennio dopo il crollo di LTCM, un altro importante evento di mercato avrebbe avuto un impatto negativo duraturo.

Il "quant quake"

Il cosiddetto “quant quake” si è verificato nell’agosto del 2007. Le sue origini all’epoca erano piuttosto misteriose, ma da allora si è diffusa la convinzione che le ingenti perdite di un grande fondo quantitativo lo abbiano costretto a vendere rapidamente i propri titoli per far fronte ai riscatti. Come nel caso del crollo di LTCM, la leva finanziaria ha giocato un ruolo importante nella crisi. Ma questa volta, gli effetti di un’eccessiva leva finanziaria sono stati amplificati dall’effetto gregge in un certo numero di fondi quantitativi e dal contagio che ne è derivato.

I fondi in questione utilizzavano l’arbitraggio statistico, un approccio che mira a generare profitti da piccole deviazioni di prezzo tra titoli simili. L’arbitraggio statistico, o “stat arb”, aveva avuto un grande successo, ma il suo successo lo aveva reso popolare, con conseguente calo dei rendimenti. Per amplificare questi rendimenti inferiori e mantenere le proprie strategie sostenibili, i gestori dei fondi hanno iniziato a utilizzare ingenti quantità di leva finanziaria.

Ciò significava che molte strategie molto simili investivano negli stessi titoli e presentavano una forte leva finanziaria, il che le rendeva particolarmente vulnerabili al contagio quando una delle loro controparti doveva liquidare rapidamente le sue posizioni.

Poiché molti fondi hanno combinato l’arbitraggio statistico con altre strategie quantitative, la corsa all'”arbitraggio statistico” si è riversata anche in altri settori dell’universo quantitativo. Le strategie quantitative avverse al rischio hanno iniziato a vendere, creando una spirale discendente. L’evento ha messo a nudo un ecosistema sovra-indebitato ed è stato estremamente doloroso per i gestori e gli investitori, costretti a vendere quando il prezzo era al minimo.

Per coloro che sono riusciti a resistere alla crisi, tuttavia, la situazione non è stata molto diversa da qualsiasi altro andamento del mercato a breve termine. I prezzi erano crollati bruscamente, ma si sono presto ripresi quando gli investitori hanno ricominciato ad acquistare. Quindi, per molti analisti quantitativi, il “terremoto” si è ridotto a un paio di giorni snervanti. La lezione da imparare è stata semplicemente quella di non fare affidamento sulla leva finanziaria per compensare la riduzione dei rendimenti.

La crisi finanziaria globale

A differenza del terremoto quantitativo, la crisi finanziaria globale (GFC) del 2008 ha messo in luce debolezze più profonde nei processi quantitativi. Sebbene il terremoto sia stato in gran parte dovuto a un eccessivo ricorso alla leva finanziaria, la GFC ha dimostrato che i fattori utilizzati dai quant erano meno solidi di quanto ipotizzato.

I titoli value, come quelli finanziari ed energetici, avevano generato profitti elevati, che poi sono svaniti con l’arrivo della crisi. Anziché dimostrarsi resilienti, come nel 2000, i titoli value sono stati i più colpiti dalla crisi finanziaria globale. Per molti analisti quantitativi, lo scoppio della bolla di internet nel 2000 era stato relativamente indolore. Le strategie quantitative tendevano a concentrarsi sul valore, e i titoli value, poco amati, avevano registrato buoni risultati quando la bolla delle dot-com era scoppiata. Ma la crisi finanziaria mondiale si è rivelata diversa.

Questa è stata un’esperienza illuminante per molti gestori quantitativi. Ha dimostrato che i crolli del mercato non si verificano sempre allo stesso modo. Durante la crisi finanziaria mondiale, la dipendenza da azioni a basso costo ha portato a risultati negativi. Invece, i portafogli dovevano essere diversificati meglio per essere più robusti: l’esposizione al fattore value non era una panacea per ogni crisi.

Insegnamenti

Una lezione appresa dalla crisi finanziaria globale è stata che la diversificazione era necessaria sia tra fattori come valore, dimensione e momentum, sia all’interno di essi. Anziché basarsi su un’unica formulazione per ciascun fattore, le strategie dovevano prevedere diverse formulazioni per ciascuno di essi.

Un altro punto era che i quants avrebbero dovuto guardare oltre le inefficienze informative standard quando cercavano errori di prezzo nei mercati. Anche i fattori comportamentali, che dipendono dalle emozioni umane piuttosto che da informazioni concrete, sono una forza potente.

Il mispricing comportamentale spiega, ad esempio, il fattore momentum. Gli investitori sono spesso propensi a vendere i loro titoli vincenti in un mercato in rialzo perché cristallizzare un guadagno li fa sentire bene; al contrario, l’avversione alla perdita li rende riluttanti a vendere titoli che hanno avuto performance deludenti. Pertanto, molti investitori mantengono i titoli “in perdita” per troppo tempo, il che crea un momentum al ribasso prolungando le correzioni dei prezzi azionari.

Pertanto, gli analisti quantitativi possono trarre vantaggio dall’acquisto di azioni da venditori disponibili quando i prezzi hanno ancora molto da guadagnare e dalla vendita allo scoperto di azioni che stanno gradualmente scendendo a livelli appropriati. Identificare tali bias comportamentali consente agli analisti quantitativi di trarre vantaggio sia dai comportamenti irrazionali degli investitori, sia dal comportamento razionale che influenza fattori come il valore.

Parte terza: rivoluzioni

Molti investitori hanno avuto esperienze negative durante il “quant quake” e la crisi finanziaria globale. Ma la conseguente avversione alle strategie quantitative in alcuni ambienti trascura gli enormi progressi compiuti negli ultimi anni e quelli che continuano a essere compiuti con l’accelerazione esponenziale della potenza di calcolo.

Nel XXI secolo, gli investimenti quantitativi hanno beneficiato di tre rivoluzioni strettamente interconnesse: nella potenza di calcolo, nei dati e negli algoritmi. Tutte e tre sono ancora in corso, consentendo ai quant di raccogliere e sfruttare una gamma impressionante di informazioni.

La rivoluzione nella potenza di calcolo

Uno degli sviluppi chiave nel campo della matematica degli ultimi due decenni è stata la disponibilità di chip più veloci e di un’architettura migliore per i server.

Tra la fine degli anni ’90 e l’inizio degli anni 2000, i quant si affidavano a server di dimensioni gigantesche e dai costi esorbitanti per simulazioni e ottimizzazioni. Queste macchine erano dotate di processori all’avanguardia per l’epoca e costavano oltre mezzo milione di dollari. Tuttavia, avevano una potenza di calcolo inferiore a quella di uno smartphone tascabile. Quindi erano lente, il che significava che i modelli utilizzati erano limitati e le simulazioni relativamente semplici. Ciascuna delle loro unità di elaborazione centrale (CPU) doveva essere installata su una propria scheda madre e ciascuna aveva un solo core.

Ma la situazione cambiò con la Legge di Moore1 , grazie alla continua innovazione nel settore dei semiconduttori. Ciò ha permesso alle CPU di avere più core, consentendo anche velocità di clock più elevate, maggiore densità di memoria e migliore efficienza energetica. In breve, i computer possono fare molto di più, molto più velocemente.

Di conseguenza, i computer utilizzati oggi dai quant hanno chip più veloci, più core per CPU e più CPU su ogni scheda di elaborazione. Questi progressi consentono di testare contemporaneamente migliaia di portafogli diversi.

L’elaborazione parallela consente ai responsabili quantitativi di ottenere le risposte di cui hanno bisogno molto più rapidamente rispetto al passato, migliorando notevolmente l’efficienza dei loro processi.

La rivoluzione nei dati

C’è stata anche una rivoluzione nei dati, o, più precisamente, un’esplosione. In passato, archiviare un gigabyte di dati era costoso. Oggi, ne portiamo terabyte nel telefono in tasca. E insieme a costi di archiviazione molto più bassi, c’è stata una crescente consapevolezza dell’importanza dei dati per tutti gli aspetti dell’economia. Nel 2006, il matematico britannico Clive Humby affermò che “i dati sono il nuovo petrolio”; da allora, il modo sempre più digitale in cui vengono gestite la maggior parte delle aziende ha reso i dati molto più facili da raccogliere.

Questi cambiamenti hanno rivoluzionato il mondo dei dati. Le persone stanno raccogliendo molti più dati che mai. Sebbene i dataset tradizionali siano ancora disponibili, ora disponiamo di una gamma in continua espansione di dataset nuovi e approfonditi. Molti di questi non erano nemmeno immaginabili 20 anni fa: ad esempio, registrazioni in tempo reale di ogni transazione con carta di credito o fotografie satellitari di ogni parcheggio del mondo.

Abbiamo assistito anche a rapidi progressi nell’analisi informatica e nell’apprendimento automatico, ovvero quel sottoinsieme dell’intelligenza artificiale che consente ai modelli informatici di adattarsi alle situazioni senza una programmazione esplicita.
Quando queste tecnologie vengono applicate a questi nuovi set di dati, offrono informazioni che gli analisti umani semplicemente non riescono a individuare.
Gli esseri umani, ad esempio, non possono contare tutte le auto parcheggiate in giro per il mondo. Ma le macchine sì, e possono aggiornare i loro dati e le loro previsioni ogni singolo giorno. E i dati in tempo reale – ad esempio il numero di camion che escono dagli stabilimenti di un’azienda – offrono informazioni approfondite e senza giri di parole che potrebbero non essere ottenibili dai rappresentanti dell’azienda.

Una delle sfide di questi nuovi set di dati deriva dalla loro estensione temporale più breve. Ad esempio, disponiamo di almeno un secolo di dati sui prezzi delle azioni, ma solo di 10 o 15 anni per i set di dati più recenti, come le informazioni satellitari sui parcheggi.

Per alcune strategie quantitative, questo non rappresenta un problema. Alcuni processi si basano su segnali a brevissimo termine per identificare opportunità di trading, segnali che possono durare solo pochi secondi. Ma molti analisti quantitativi hanno orizzonti temporali più ampi e preferiscono avere molti dati a supporto del loro processo decisionale. Non amano dare per scontato che statistiche che coprono solo una manciata di anni forniscano una previsione perfetta. Vogliono invece osservare cicli di mercato completi. Ma col passare del tempo, questi nuovi set di dati stanno accumulando abbastanza dati storici da diventare realmente utili. Questo, naturalmente, non potrà che aumentare, fornendo ai modelli una fornitura in continua espansione di set di dati significativi.

La rivoluzione negli algoritmi

Una terza rivoluzione si è verificata negli algoritmi: le procedure computazionali che trasformano i dati in informazioni e previsioni utili. Alcuni degli algoritmi su cui si basano oggi i quant hanno le loro origini intellettuali negli anni ’70 o anche prima. Ma i loro equivalenti contemporanei sono diventati molto più efficaci e potenti grazie alle continue innovazioni nella progettazione algoritmica e alla maggiore portata offerta da computer più potenti. Questi progressi hanno prodotto approcci particolarmente adatti alla gestione di set di dati reali di grandi dimensioni e “rumorosi”.

Gli alberi decisionali ne sono un esempio lampante. Questi algoritmi, dotati di un enorme potenziale per la modellazione predittiva, hanno raggiunto una forma riconoscibile con la pubblicazione di Clarification and Regression Trees (CART) da parte di Leo Breiman et al. nel 1984.2 Ma la tecnologia nascente descritta in CART è stata da allora potenziata dai progressi nella potenza di calcolo. E con l’aumento della potenza di calcolo, gli analisti quantitativi ne hanno tratto vantaggio sviluppando adattamenti più sofisticati degli algoritmi originali. Negli ultimi anni, gli alberi decisionali sono stati applicati con successo in una vasta gamma di settori e hanno fornito uno strumento potente e trasparente per identificare opportunità di investimento.

Un altro esempio è la rete neurale, un modello di apprendimento automatico basato sul cervello umano che offre capacità di problem-solving altamente sviluppate. Sebbene i concetti di reti neurali e intelligenza artificiale siano stati discussi negli anni ’60, per decenni non sono riusciti ad andare oltre quello stadio concettuale. Nel 2012, tuttavia, lo sviluppo delle reti neurali profonde ha subito una notevole accelerazione, portando allo sviluppo della tecnologia fondamentale per l’intelligenza artificiale generativa nel 2017. Le reti neurali risultanti sono sorprendentemente potenti, sebbene, rispetto agli alberi decisionali, il loro funzionamento interno sia più opaco.

Conquistare un vantaggio

La rivoluzione combinata nella potenza di calcolo, nei big data e negli algoritmi più sofisticati è straordinariamente potente: l’apprendimento automatico e altri strumenti adiacenti all’intelligenza artificiale forniscono informazioni quantitative impensabili in passato.

In questo contesto, è importante ricordare che i gestori che supervisionano i processi quantitativi sono investitori, oltre che esperti di dati e matematici. Pertanto, spesso utilizzano i dati in modo molto simile a quello dei gestori di investimenti tradizionali, solo a una velocità e una scala molto maggiori.

Inoltre, molti dei modelli impiegati dagli analisti quantitativi si basano sui fondamentali azionari o su altri aspetti intuitivi degli investimenti. I big data non significano necessariamente una visione d’insieme: possono invece significare concentrarsi su singoli titoli con estrema precisione.

Le impressioni dettagliate che guidano le decisioni dei quant possono essere ricavate da una vasta gamma di input, alcuni dei quali possono essere ben lontani dai dati numerici tradizionali. Ad esempio, il sentiment può ora essere misurato da qualsiasi cosa, dai documenti depositati presso la SEC ai feed di notizie, dai comunicati stampa ai report aziendali e persino alle conference call. Nel frattempo, i trend delle attività online, come le ricerche e le transazioni web, possono fornire preziosi set di dati, così come i dati GPS sulle catene di approvvigionamento e le immagini satellitari delle aree agricole.

Grazie a dataset tradizionali e alternativi, gli strumenti odierni consentono agli analisti quantitativi di estrarre informazioni utili da enormi quantità di dati. Queste informazioni possono essere utilizzate per ottenere un vantaggio significativo su un piccolo gruppo di azioni, o un piccolo vantaggio su un numero enorme di azioni, o qualsiasi altra situazione intermedia.

I miglioramenti nella qualità e nella quantità dei dati consentono l’avvento di nuove tecniche. Il machine learning consente ai modelli di migliorare, tenendo conto dei successi e dei fallimenti del passato. Questo rispecchia l’esperienza che un gestore bottom-up tradizionale potrebbe acquisire in anni di esperienza sul mercato, con la differenza fondamentale che un modello quantitativo non deve necessariamente essere in circolazione da molto tempo se ha accesso a una quantità sufficiente di dati retrospettivi relativi ai periodi temporali appropriati.

Oggi, si pone molta meno enfasi su pochi fattori o su uno stile particolare. Sebbene alcuni gestori quantitativi possano ancora affidarsi a questi approcci più rudimentali, i leader hanno fatto passi avanti. Invece, ogni azione viene valutata in base a molti fattori distinti.

MDT: la componente umana

A volte si ha la percezione che la finanza quantitativa sia una “scatola nera”, un processo misterioso che non può essere spiegato facilmente, magari con un pizzico di fumo e specchi. E per alcuni manager quantitativi questa potrebbe essere una rappresentazione accurata.

Le reti neurali, ad esempio, impiegate da alcune strategie, comportano un’opacità intrinseca: non “mostrano il loro funzionamento” come fanno altri approcci quantitativi. Spesso, però, la percezione di “scatola nera” nasce semplicemente perché i manager quantitativi non condividono i dettagli precisi dei loro processi proprietari. In questo, non sono diversi dai tradizionali manager bottom-up, che in genere mantengono riservati i propri processi proprietari di selezione dei titoli.

Un altro aspetto è semplicemente la necessaria complessità degli approcci quantitativi. Per chi non è un matematico, le tecniche quantitative possono spesso apparire scoraggianti. Ma complessità non è sinonimo di opacità. Molti modelli quantitativi sono completamente trasparenti. I modelli basati sugli alberi decisionali di MDT, ad esempio, consentono ai potenziali investitori di vedere esattamente come i nostri gestori arrivano alle loro previsioni e decisioni di investimento.

In definitiva, come i gestori bottom-up tradizionali, utilizziamo dati bottom-up, insieme a dati tecnici (entrambi “fondamentali” per l’andamento del prezzo delle azioni). Sappiamo quali dati influenzeranno i titoli in cui investiamo, e in questo non siamo diversi dagli altri gestori.

Ciò che ci differenzia dai vecchi analisti quantitativi è l’ampiezza e la profondità dei dati che possiamo analizzare, la velocità con cui possiamo elaborarli e la gamma di titoli a cui possiamo applicare le informazioni che ne derivano. Nel nostro mondo sempre più complesso, crediamo che questo approccio basato sui dati sia sempre più prezioso.

MDT US Equity

L’importanza dei dati.

BD015904

A history of quant

Related insights

Lightbulb icon

Get the latest insights straight to your inbox