Et en effet, Sam Altman, PDG d’OpenAI, a donné un high five la semaine dernière : GPT 5. Une heure et demie de streaming en direct pour présenter le nouveau modèle GPT 5 qui bénéficie de cinq changements importants ou, pour reprendre les mots d’Altman, « une mise à jour importante » du modèle GPT.
Nous sommes loin de la présentation mémorable de l’iPhone en 2007. Dans un cadre plus intime (un salon), après une brève introduction de Sam Altman, plusieurs collaborateurs du PDG se sont succédé pour approfondir les 5 changements fondamentaux du modèle, ceux qui nous intéressent.
1. Vibe coding. Cela nous semble être l’aspect le plus important, peut-être le seul digne d’intérêt. On demande à GPT de produire un logiciel en précisant ses caractéristiques et il semble que le nouveau modèle soit capable de restituer un produit pratiquement fini. Il semble même qu’en décrivant une sensation ou un état d’esprit, l’IA soit capable de produire un site web dynamique (non seulement HTML et CSS, mais aussi le code JavaScript correspondant) cohérent avec ces émotions.
2. Dimensions. GPT 5 est disponible en 3 versions : standard, mini et nano (disponible uniquement via API). Les utilisateurs gratuits de ChatGPT auront accès aux versions standard et mini, tandis que les abonnés à ChatGPT Plus bénéficieront de limites d’utilisation plus élevées sur toute la gamme. Un utilisateur US Pro qui paie 200 dollars par mois aura un accès illimité à GPT-5, ainsi qu’aux modèles plus puissants gpt-5-pro et gpt-5-thinking. Ces deux derniers modèles prennent plus de temps pour fournir des réponses, mais elles sont plus approfondies et réfléchies.
3. Personnalisation. C’est le ton qui fait la musique. Et en effet, avec GPT 5, l’utilisateur pourra choisir le type d’interaction qu’il souhaite. Outre l’interaction standard proposée par ChatGPT, l’utilisateur pourra demander le mode « Cynic » pour obtenir des réponses sarcastiques, le mode « Listener » pour interagir avec un interlocuteur compréhensif qui autorise également les défoulements, mais aussi le mode « Nerd » qui ne nécessite aucune explication et le mode « Robot » pour des réponses purement mécaniques qui, nous l’imaginons, seront utilisées pour des consultations scientifiques.
4. Voix. OpenAI lance une version d’interaction vocale considérablement améliorée, qui non seulement fonctionne avec des GPT personnalisés, mais adapte également le ton et le style de conversation en fonction des instructions de l’utilisateur et de l’atmosphère générale. L’utilisateur pourra demander à l’IA une interaction vocale plus vivante, plus lente, plus chaleureuse ou tout autre chose qu’il souhaite. Pour les utilisateurs de ChatGPT Plus, les réponses vocales sont déjà presque illimitées. Les utilisateurs gratuits continuent également d’y avoir accès, avec quelques heures par jour pour discuter en mode mains libres. Pour simplifier les choses, l’ancien mode vocal standard sera complètement supprimé d’ici un mois. Après cela, tout le monde pourra profiter de la même expérience mise à jour.
5. Google. Probablement dès cette semaine, les utilisateurs de ChatGPT Pro pourront connecter directement Gmail, Google Calendar et Google Contacts à ChatGPT. Cela signifie qu’il ne sera plus nécessaire de passer d’un onglet à l’autre pour vérifier si vous êtes libre mardi prochain ou de fouiller dans vos conversations pour trouver cet e-mail auquel vous avez sûrement oublié de répondre. Une fois connecté, ChatGPT récupérera ce dont il a besoin pour aider l’utilisateur à répondre aux questions. OpenAI a assuré aux utilisateurs qu’il ne récupérera que le minimum nécessaire et uniquement lorsque cela sera utile. Il ne sera pas nécessaire de dire « vérifie mon calendrier » ou « récupère ce contact ». L’IA le fera en fonction de la demande : supposons que l’utilisateur doive prendre un rendez-vous ; l’IA choisira une heure et rédigera l’e-mail au nom de l’utilisateur lui-même. D’autres niveaux d’abonnement auront accès aux connexions dans un avenir proche, étendant cette fonctionnalité au-delà de la version Pro.
La principale limite de cette « mise à jour importante » semble toutefois être le fait de ne pas dépasser la limite de l’AGI. Comme nous l’avons déjà mentionné dans notre analyse du 13 juin 2025, l’intelligence artificielle générale vise à reproduire les capacités cognitives humaines, mais cela reste un défi purement théorique qui n’est certainement pas relevé par GPT 5. La principale innovation technique à la base de GPT-5 semble être l’introduction d’un « routeur ». Celui-ci décide à quel modèle GPT déléguer lorsqu’une question est posée, en se demandant essentiellement quel effort investir dans le calcul des réponses. Les options de délégation comprennent les modèles précédents, actuels (y compris gpt-5-thinking – dont la nature exacte n’est pas encore claire) et futurs intégrés dans GPT. On pourrait donc supposer que ce modèle n’est en réalité qu’un autre moyen de contrôler les modèles existants à l’aide de requêtes répétées et de les pousser à travailler davantage jusqu’à produire de meilleurs résultats, ce qui constitue en soi un soupçon plus que fondé quant à la limite que les LLM ne parviendront pas à dépasser (à savoir l’AGI).
Pour mieux comprendre ce point – et compte tenu du fait que nous les avons également pris pour acquis dans notre précédente analyse du 13 juin 2025 –, nous pensons qu’il convient de dire quelques mots pour clarifier ce que sont les grands modèles linguistiques (LLM) et comment ils fonctionnent.
En 2017, des chercheurs de Google ont travaillé sur de nouveaux modèles d’apprentissage automatique (ML) capables de saisir des schémas extrêmement complexes dans de longues séquences de mots qui sous-tendent la structure du langage humain. En les entraînant sur de grandes quantités de texte (d’où le nom « langage à grande échelle »), les modèles pouvaient répondre aux demandes d’un utilisateur en mappant une séquence de mots à sa suite la plus probable, conformément aux schémas présents dans la base de données textuelle. Ces schémas ne sont rien d’autre que d’énormes tableaux de stimuli et de réponses : une requête de l’utilisateur est un stimulus qui déclenche la recherche dans le tableau pour trouver la meilleure réponse. Alors que les modèles traditionnels de ML apprennent en calibrant les paramètres du modèle pour obtenir la meilleure réponse parmi celles prévues dans le tableau, dans les LLM, les requêtes peuvent être modifiées de manière appropriée pour les diriger vers les modèles les plus appropriés ou pour les solliciter plusieurs fois afin d’obtenir la réponse la plus adéquate. C’est exactement ce que fait le « routeur » de GPT 5 : il décompose les requêtes les plus complexes en requêtes plus simples et les trie. Cela pourrait justifier l’affirmation, soutenue par beaucoup, selon laquelle les LLM n’ont pas de capacités évolutives supplémentaires. Afin de fournir de meilleures réponses, différents modèles (spécialisés dans certains domaines) doivent collaborer en « orchestrant » leur travail en fonction des requêtes opportunément décomposées et adressées au modèle le plus adapté, où la réponse finale est une composition de réponses précises. Si tel était le cas, nous devrions donner raison aux scientifiques et experts du secteur qui soutiennent depuis longtemps qu’il ne sera pas possible de dépasser les limites actuelles de l’IA sans aller au-delà des architectures LLM.
Pour en revenir à GPT 5 et poursuivre son examen, nous constatons que même la qualité de l’écriture semble n’avoir enregistré qu’une progression linéaire ; ce n’est pas mal, mais ce n’est certainement pas compatible avec les améliorations exponentielles auxquelles la technologie nous a habitués.
En revanche, l’utilisation de l’IA en termes mathématiques (mais aussi scientifiques) et de programmation, entendue comme la production de solutions logicielles, semble intéressante.
Anthropic, concurrent d’OpenAI, a dominé le marché jusqu’à présent, mais GPT-5 a légèrement surpassé le dernier modèle d’Anthropic sur SWE-bench Verified, un test industriel évaluant les capacités de programmation. Cela a permis à OpenAI de conquérir des utilisateurs importants, dont l’équipe d’Any sphere, dont l’assistant de codage populaire Cursor est l’un des principaux clients d’Anthropic: Réussir à migrer ses utilisateurs vers GPT 5 donnerait un coup de pouce significatif aux revenus annuels récurrents d’OpenAI, qui affiche déjà un chiffre d’affaires annuel récurrent (ARR) de 12 milliards de dollars, avec une perspective de le porter à 20 milliards d’ici la fin 2025.
OpenAI est actuellement évaluée à environ 300 milliards de dollars, avec 700 millions d’utilisateurs actifs par semaine, dont beaucoup paient des abonnements mensuels allant de 20 à 200 dollars, qui constituent la principale source de revenus du produit.
On prévoit que GPT 5, précisément en raison de son positionnement par rapport à la concurrence, sera en mesure d’apporter une augmentation significative à la valorisation de l’entreprise de San Francisco : une nouvelle valorisation de 500 milliards de dollars est en discussion, ce qui en ferait la société technologique privée la plus précieuse au monde. Mais outre l’amélioration notable de la programmation, de nombreux points d’ombre incitent à la prudence, notamment les faibles progrès en matière de raisonnement et de connaissances par rapport à des concurrents tels que Grok 4 Heavy de xAI (qui obtient un score de 42 % au “Humanity’s Last Exam” contre 44 % pour son concurrent), la limite technologique que semblent représenter les LLM, qui constituent l’épine dorsale du GPT, le risque – considéré comme élevé – d’une utilisation dangereuse (comme la création d’armes biologiques ou de nouveaux virus par des débutants) et la concurrence chinoise toujours imminente (DeepSeek).
Avertissement
Cet article exprime l’opinion personnelle des collaborateurs de Custodia Wealth Management qui l’ont rédigé. Il ne s’agit pas de conseils ou de recommandations d’investissement, ni de conseils personnalisés, et il ne doit pas être considéré comme une invitation à effectuer des transactions sur des instruments financiers.