Oramai le notizie sull’intelligenza artificiale (AI) escono con una cadenza giornaliera se non addirittura intra-giornaliera: segnale che si tratta effettivamente di un tema d’interesse oltre che di investimento di primo piano. Tuttavia riteniamo che poche notizie siano degne di nota almeno da un punto di vista finanziario. Questa settimana ne segnaliamo due di segno marcatamente opposto e proprio per questo ancora più interessanti.
La prima riguarda Meta ed il suo progetto di investimento di 15 miliardi di dollari per acquisire il 49% di Scale AI, una startup specializzata nell’etichettatura dei dati (labelling) e nei servizi di valutazione dei modelli (di machine learning). Questa acquisizione si posiziona all’interno di un progetto più ampio che vede Meta Platform Inc. impegnata nella creazione di un laboratorio (di cui si sa molto poco) di ricerca sull’intelligenza artificiale dedicato al raggiungimento della “superintelligenza”, un ipotetico sistema di AI in grado di superare le capacità cognitive umane in tutti i settori. Nota come Artificial SuperIntelligence (ASI), è una forma teorica (e sottolineiamo teorica) di AI che supererebbe di gran lunga l’intelligenza umana in tutti gli aspetti, tra cui la risoluzione dei problemi, il ragionamento, la creatività e la comprensione emotiva. Rappresenta lo stadio più alto dello sviluppo del AI, superando la cosiddetta intelligenza generale artificiale (Artificial General Intelligence, AGI), che mira a replicare le capacità cognitive umane, ed è anch’essa ovviamente una sfida puramente teorica (per il momento).
Lo slancio dietro questo nuovo laboratorio sembra derivare dalla frustrazione di Zuckerberg per le carenze percepite da Meta nei progressi del AI, tra cui l’accoglienza contrastante del modello Llama 4 e i ritardi del modello più ambizioso: Behemoth. L’obiettivo audace è quello di superare le altre aziende tecnologiche in questa battaglia: in particolare concorrenti come Google, OpenAI e Anthropic hanno presentato una nuova generazione di potenti modelli di “ragionamento”, che risolvono i problemi scomponendoli passo dopo passo: e qui parliamo di AGI. Tuttavia Meta vuole andare oltre l’AGI, con la visione a lungo termine di integrare le capacità avanzate di ASI nella vasta suite di prodotti di Meta, tra cui piattaforme di social media, strumenti di comunicazione, chatbot e dispositivi dotati di AI come gli occhiali intelligenti Ray-Ban. In tutto questo ha messo in conto anche l’enorme quantità di energia richiesta da questi modelli ed ha firmato un accordo con Constellation Energy, il principale operatore di centrali nucleari a stelle e strisce, per acquistare tutta l’energia prodotto dalla centrale di Clinton nell’Illinois per vent’anni a partire dal 2027.
Ed ora la doccia fredda. In un documento pubblicato nello scorso fine settimana, Apple ha affermato che i modelli di ragionamento di grandi dimensioni (Large Reasoning Models, LRM), la base dell’AGI e forse anche del ASI (perché gli LLM non lo possono sicuramente essere), hanno subito un “crollo completo della precisione” quando sono stati sottoposti a problemi molto complessi. Si tratta di problemi di natura enigmistica come la famosa Torre di Hanoi.
È emerso che i modelli di intelligenza artificiale standard superano gli LRM nei problemi a bassa complessità, mentre entrambi i tipi di modelli subiscono un “collasso completo” nei problemi ad alta complessità. Gli LRM tentano di risolvere quesiti complessi generando processi di pensiero dettagliati che suddividono il problema in sotto-problemi più piccoli da affrontare in sequenza. Non riteniamo futile precisare che quando si parla di AI, la complessità deve intendersi come “difficoltà computazionale” o, banalizzando a fini esplicativi, parliamo di problemi combinatori.
Lo studio, che ha testato la capacità dei modelli di risolvere enigmi, ha aggiunto che quando gli LRM si sono avvicinati al collasso delle prestazioni hanno iniziato a “ridurre il loro sforzo di ragionamento”. Sono stati testati modelli quali o3 di OpenAI, Gemini Thinking di Google, Claude 3.7 Sonnet-Thinking di Anthropic e DeepSeek-R1. I ricercatori di Apple hanno dichiarato di aver trovato questa evidenza “particolarmente preoccupante”.
Il documento ha anche rilevato che gli LRM sprecano potenza di calcolo (e quindi energia elettrica) trovando la soluzione giusta per i problemi più semplici nelle prime fasi del loro “pensiero”. Tuttavia, quando i problemi diventano leggermente più complessi, i modelli esplorano prima le soluzioni errate e arrivano a quelle corrette in un secondo momento. Per i problemi di maggiore complessità, invece, i modelli entrano in “collasso”, non riuscendo a generare alcuna soluzione corretta. Si è verificato anche un caso in cui una volta fornito un algoritmo che avrebbe risolto il problema, i modelli hanno fallito. Quando si avvicinano a una soglia critica – che corrisponde strettamente al punto di collasso della loro accuratezza – i modelli iniziano contro intuitivamente a ridurre il loro sforzo di ragionamento nonostante la crescente difficoltà del problema e questo lascia presagire un sostanziale limite di scalabilità nelle capacità di ragionamento degli attuali LRM ovvero un limite fondamentale nella generalizzazione (proprietà che qualunque modello di AI o di machine learning deve possedere) del ragionamento.
Questi risultati non sono certo incoraggianti e soprattutto non si riesce a capire come Meta possa riuscire a sviluppare modelli di superintelligenza pur dedicando risorse importanti – peraltro da finanziarsi in gran parte tramite gli introiti pubblicitari – per accaparrarsi le migliori menti in questo ambito. Tuttavia la storia del AI è costellata da corsi e ricorsi come nel caso delle reti neuronali abbandonate per un lungo periodo di tempo una volta accertato che l’apporto di molti layer di “neuroni” era praticamente irrilevante rispetto al valore aggiunto fornito dall’ultimo e poi ritornate in grande spolvero dal 2017 con il Deep Learning. Nel frattempo gli sforzi di ricerca nell’ambito machine learning si sono concentrati in altri ambiti e modelli (ad esempio i kernel methods) non meno utili ed importanti.
Quello che sembra profilarsi ad oggi è che lo sviluppo di AGI/ASI non debba passare per gli LRM, ma probabilmente per diverse tipologie di modelli o per revisione di quelli attualmente sotto studio. Quello che sembra emergere sotto la lente dell’investitore una riconsiderazione ed una attenta ponderazione sulle potenzialità del AI come tematica di investimento. Il che non significa affatto abbandono del tema o sottopeso delle posizioni in portafoglio afferenti al tema. Significa semplicemente: ponderazione ed analisi più accurata dei profili “value” di questi investimenti.
Disclaimer
Il presente post esprime l’opinione personale dei collaboratori di Custodia Wealth Management che lo hanno redatto. Non si tratta di consigli o raccomandazioni di investimento, di consulenza personalizzata e non deve essere considerato come invito a svolgere transazioni su strumenti finanziari.