Ed in effetti Sam Altman, CEO di OpenAI, la scorsa settimana, ha dato il cinque: GPT 5. Un’ora e mezza di diretta streaming per presentare il nuovo modello GPT 5 che si fregia di cinque cambiamenti di rilievo o per usare le parole di Altman, “un aggiornamento importante” al modello GPT.
Siamo ben lontani dall’indimenticabile presentazione dell’iPhone del 2007. Un contesto più intimo (un salotto) dove, dopo una breve introduzione di Sam Altman, si sono avvicendati vari collaboratori del CEO per approfondire i 5 cambiamenti fondamentali del modello; quelli che a noi interessano.
- 1. Vibe coding. A noi sembra decisamente l’aspetto più importante, forse l’unico degno di nota. Si chiede a GPT di produrre un software specificandone le caratteristiche e pare che il nuovo modello sia in grado di restituire un prodotto praticamente finito. Sembra addirittura che descrivendo una sensazione o uno stato d’animo l’AI sia in grado di produrre un sito web dinamico (non solo HTML e CSS ma anche il relativo codice JavaScript) coerente con queste emozioni.
- 2. Dimensioni. GPT 5 è disponibile in 3 versioni: la standard, la mini e la nano (disponibile solo tramite API). Gli utenti gratuiti di ChatGPT avranno accesso sia alla standard che alla mini, mentre gli abbonati a ChatGPT Plus godranno di limiti di utilizzo più elevati su tutta la linea. Un utente US Pro che paga 200 dollari al mese, avrà accesso illimitato a GPT-5, oltre che al modello più potente gpt-5-pro e a gpt-5-thinking. Entrambi richiedono più tempo per fornire risposte, ma restituiscono risposte più approfondite e ponderate.
- 3. Personalizzazione. È il tono che fa la musica. Ed infatti con GPT 5 l’utente potrà scegliere il tipo di interazione che desidera. Oltre a quella standard offerta da ChatGPT, l’utente potrà richiedere la “Cynic” per ottenere risposte sarcastiche, la “Listener” per interagire con un interlocutore comprensivo che consenta anche degli sfoghi; ma anche “Nerd” che non ha bisogno di spiegazioni e la “Robot” per risposte puramente meccaniche che immaginiamo sarà utilizzata per consultazioni scientifiche.
- 4. Voce. OpenAI sta lanciando una versione di interazione vocale, notevolmente migliorata, che non solo funziona con GPT personalizzati, ma adatta anche il tono e lo stile di conversazione in base alle istruzioni dell’utente e all’atmosfera generale. L’utente potrà chiedere all’AI un’interazione vocale più vivace, più lenta, più calorosa o qualsiasi altra cosa desideri. Per gli utenti di ChatGPT Plus, le risposte vocali sono già ora quasi illimitate. Anche gli utenti gratuiti continuano ad avere accesso, con alcune ore al giorno per chattare a mani libere. Per semplificare le cose, la vecchia modalità vocale standard verrà completamente eliminata nel giro di un mese. Dopodiché, tutti potranno usufruire della stessa esperienza aggiornata.
- 5. Google. Probabilmente già da questa settimana gli utenti di ChatGPT Pro potranno collegare direttamente Gmail, Google Calendar e Google Contacts a ChatGPT. Ciò significa che non sarà più necessario passare da una scheda all’altra per verificare se si è liberi martedì prossimo o cercare tra le conversazioni per trovare quell’e-mail a cui si è sicuramente dimenticato di rispondere. Una volta connesso, ChatGPT recupererà ciò che gli serve per aiutare l’utente a rispondere alle domande. OpenAI ha assicurato agli utenti che recupererà solo il minimo necessario e solo quando sarà utile. Non sarà necessario dire “controlla il mio calendario” o “recupera quel contatto”. L’AI lo farà in base alla richiesta: supponiamo che l’utente debba fissare un appuntamento; l’AI sceglierà un orario e scriverà l’e-mail per conto dell’utente stesso. Altri livelli di abbonamento avranno accesso alle connessioni nel prossimo futuro, espandendo questa funzione oltre la versione Pro.
Il principale limite di questo “importante aggiornamento” sembra tuttavia essere il non superamento del limite AGI. Come già accennato nel nostro approfondimento del 13 giugno 2025 l’Artificial General Intelligence mira a replicare le capacità cognitive umane, ma rimane una sfida puramente teorica di certo non vinta da GPT 5. La principale innovazione tecnica alla base di GPT-5 sembra essere l’introduzione di un “router”. Questo decide a quale modello di GPT delegare quando viene posta una domanda, essenzialmente chiedendosi quanto impegno investire nel calcolo delle risposte. Le opzioni di delega includono i precedenti, gli attuali (incluso gpt-5-thinking – e non è ancora chiaro cosa effettivamente sia) e i futuri modelli integrati in GPT. Si potrebbe quindi ipotizzare che questo modello sia, in realtà, solo un altro modo per controllare i modelli esistenti con query ripetute e spingerli a lavorare di più fino a produrre risultati migliori e costituisca di per sé un più che fondato sospetto del limite che i LLM non riusciranno a superare (ovvero proprio l’AGI).
Per comprendere meglio questo punto – e considerando che anche nel nostro precedente approfondimento del 13 giugno 2025 li abbiamo dati per scontati – riteniamo sia il caso di spendere due parole per chiarire cosa siano i Large Language Model (LLM) e come funzionino.
Nel 2017 alcuni ricercatori di Google lavorarono a nuovi modelli di Machine Learning (ML) in grado di catturare schemi estremamente complessi all’interno di lunghe sequenze di parole che sottendono la struttura del linguaggio umano. Addestrandoli su grandi quantità di testo (da cui il nome “linguaggio di grandi dimensioni”), i modelli potevano rispondere a richieste da parte di un utente mappando una sequenza di parole alla sua continuazione più probabile in conformità con gli schemi presenti nella base dati testuale. Questi schemi altro non sono se non enormi tabelle di stimoli e risposte: un’interrogazione da parte dell’utente è uno stimolo che innesca la ricerca nella tabella per trovare la risposta migliore. Mentre i modelli tradizionali di ML apprendono calibrando i parametri del modello per arrivare alla risposta migliore tra quelle previste nella tabella, nei LLM si possono modificare opportunamente le richieste per indirizzarle ai modelli più opportuni o per sollecitarli più volte per ottenere la risposta più adeguata. Questo è esattamente quello che fa il “router” di GPT 5: decompone le richieste più complesse in richieste più semplici e le smista. Questo potrebbe giustificare l’affermazione – da molti sostenuta – che i LLM non hanno capacità evolutive ulteriori. Per poter dare risposte migliori vari modelli (specializzati in alcuni argomenti) devono collaborare “orchestrando” il loro lavoro in base alle interrogazioni opportunamente decomposte ed indirizzate al modello migliore, dove la risposta finale sia una composizione di risposte puntuali. Se così fosse, dovremmo dare ragione a quegli scienziati ed esperti del settore che da tempo sostengono che non sarà possibile superare gli attuali limiti dell’AI senza andare oltre le architetture LLM.
Tornando a GPT 5 e continuando la sua disamina notiamo che anche la qualità della scrittura sembra aver totalizzato solo un progresso lineare; non male, ma di certo non compatibile con i miglioramenti tipicamente esponenziale cui ci ha abituato la tecnologia.
Interessante invece pare essere l’uso del AI in termini matematici (ma anche scientifici) e di programmazione intesa come produzione di soluzione software.
Anthropic, concorrente di OpenAI, ha dominato il mercato fino ad oggi, ma GPT-5 ha leggermente superato l’ultimo modello di Anthropic su SWE-bench Verified, un test a livello industriale per le capacità di programmazione. Questo ha permesso a OpenAI di conquistare utenti importanti, tra cui il team di Any sphere, il cui popolare assistente di codifica Cursor è uno dei maggiori clienti di Anthropic: riuscire a migrare i suoi utenti verso GPT 5 fornirebbe un significativo impulso alle entrate ricorrenti annuali di OpenAI che già esibisce un fatturato annuo ricorrente (ARR) di 12 miliardi di dollari con una prospettiva di portarlo a 20 entro la fine del 2025.
OpenAi è valutata ad oggi circa 300 miliardi di dollari, con 700 milioni di utenti attivi settimanalmente molti dei quali pagano abbonamenti mensili dai 20 ai 200 dollari che costituiscono la fonte di entrate principali del prodotto.
Si prevede che GPT 5 – proprio a seguito del posizionamento rispetto alla concorrenza – sia in grado di apportare un incremento significativo alla valutazione dell’azienda di San Francisco: si sta discutendo una nuova valutazione di 500 miliardi di dollari, che la renderebbe la società tecnologica privata più preziosa al mondo. Ma a parte il deciso miglioramento della parte programmazione ci sono molte ombre che consigliano prudenza tra cui gli scarsi miglioramenti nelle capacità di ragionamento e conoscenza rispetto a concorrenti come Grok 4 Heavy di xAI (totalizza un 42% nel “Humanity’s Last Exam” rispetto al 44% del concorrente), il limite tecnologico che i LLM sembrano rappresentare e che costituiscono la spina dorsale di GPT, il rischio – considerato alto – di un suo utilizzo pericoloso (come ad esempio la creazione di armi biologiche o di nuovi virus da parte di principianti) e la sempre incombente concorrenza cinese (DeepSeek).
Disclaimer
Il presente post esprime l’opinione personale dei collaboratori di Custodia Wealth Management che lo hanno redatto. Non si tratta di consigli o raccomandazioni di investimento, di consulenza personalizzata e non deve essere considerato come invito a svolgere transazioni su strumenti finanziari.