È difficile non notare come l’intelligenza artificiale (AI) abbia pervaso la nostra vita quotidiana, con sempre più macchine che si adoperano per anticipare le nostre prossime mosse. Le tecnologie AI si evolvono rapidamente, con numerosi sviluppi rivoluzionari sia da parte dei leader del settore sia da parte di nuovi operatori. Sebbene ChatGPT abbia mantenuto la sua leadership come prodotto di IA più popolare tra i consumatori, non è ancora un’attività redditizia e la concorrenza rimane aperta per creare modelli di business sostenibili.
Fino a poco tempo fa, lo sviluppo dell’IA ha ottenuto un successo senza precedenti grazie all’addestramento di modelli sempre più grandi e all’uso di set di dati sempre più grandi. Questo “training-time scaling” ha spinto centinaia di miliardi di dollari di investimenti su modelli che potessero restare competitivi e all’avanguardia. Un approccio definito “l’amara lezione” dal ricercatore Richard Sutton, perché sembrava implicare che la conoscenza e l’intelligenza umana fossero inferiori al semplice inserimento di più dati e calcoli per la risoluzione di un problema.
Gli sviluppi più recenti hanno messo in discussione l’idea che l’ingegno umano non sia più necessario. I tempi di addestramento dei modelli di base dell’intelligenza artificiale sembrano essersi scontrati contro la crescente domanda e la scarsità di nuovi chip, energia e dati. I ricercatori hanno riorientato i loro sforzi verso l’applicazione intelligente e il perfezionamento di modelli che già possiedono.
La concorrenza rimane agguerrita e il successo non è garantito nemmeno alle aziende più ricche di risorse.
Nel 2024, OpenAI ha rilasciato Chat-GPT “o1”, un modello di ragionamento che pensa prima di rispondere. Il suo funzionamento interno prevede l’affinamento del modello linguistico esistente per conversare con se stesso. Questo meccanismo di “ pensiero a catena” conferisce a o1 la capacità di pensare prima di rispondere, in contrapposizione al progetto precedente che prevedeva di dare la prima risposta che veniva in mente. Questa innovazione ha prodotto risultati più accurati per alcuni problemi matematici e di ragionamento e ha aperto la strada a un nuovo modo di scalare per migliorare l’accuratezza: lo “scalare del tempo di inferenza”. Un modello di ragionamento tende a essere più accurato se passa più tempo a pensare alla sua risposta, quindi è ora possibile passare più tempo a calcolare e produrre una risposta migliore dopo che il modello è già stato addestrato.
Un altro sviluppo in questo senso è stato il rilascio all’inizio del 2025 da parte di DeepSeek del suo modello di ragionamento R1, un concorrente di o1. Il rilascio ha sfidato il dominio delle aziende statunitensi nel campo dell’IA, in quello che molti osservatori hanno definito un momento “Sputnik”.
Il modello R1 ha imparato a ragionare allenandosi con l’apprendimento rinforzato, che affina un modello di base pre-addestrato attraverso interazioni simulate che premiano le risposte accurate. Il successo di questo approccio ha creato un terzo percorso di scalabilità chiamato “scalabilità post-formazione”, in cui i modelli vengono perfezionati per diventare più capaci, ma non riqualificati da zero. DeepSeek ha anche alzato la posta in gioco dell’IA rilasciando il modello al pubblico con una licenza open-source.
Questi sviluppi hanno suggerito che i vincitori non saranno determinati solo dall’entità degli investimenti, ma dalla concorrenza feroce tra gli operatori storici e i nuovi entranti, dove mantenere un vantaggio duraturo può essere difficile. Anche in presenza di un’infrastruttura significativa, le aziende dovranno allocare correttamente le risorse lungo tre diverse dimensioni di scalabilità. E anche se i capitali si riversano sull’IA, i modelli di business sostenibili rimangono un problema da risolvere.
Alcuni dei più convinti sostenitori dell’IA affermano che questa tecnologia rimodellerà radicalmente l’economia e avrà un impatto di vasta portata sulla società. Sebbene non sia certo che queste promesse possano essere pienamente realizzate, oggi questa tecnologia si fa già sentire in settori diversi come la ricerca, l’hardware e l’istruzione. La concorrenza rimane agguerrita e il successo non è garantito nemmeno alle aziende più ricche di risorse.
Investire nell'intelligenza artificiale
A nostro avviso, assumere una visione direzionale su una singola società o settore presenta dei rischi. Siamo consapevoli che non tutte le società subiranno l’impatto dell’IA allo stesso modo. Questo è il fondamento del nostro approccio alla costruzione di portafogli gestiti in base al rischio che hanno il potenziale di guadagnare dall’IA.
Ci assicuriamo che i portafogli siano diversificati tra queste opportunità, limitando l’esposizione a singole società e settori, nonché a gruppi di società che presentano rischi comuni. Questo approccio contribuisce a mitigare l’esposizione diretta a un singolo vincitore o perdente.
Lo stato attuale dell’IA e delle sue applicazioni è in continua evoluzione, rendendo le verità di oggi potenzialmente obsolete domani. Valutiamo costantemente i nuovi progressi dell’apprendimento automatico per integrare concetti efficaci da applicare al nostro processo di investimento.
Per saperne di più su MDT US Equity.
BD016129