IA, IA, IA

Aujourd’hui, l’intelligence artificielle (IA) fait l’objet d’une actualité quotidienne, voire infra-quotidienne, signe qu’il s’agit bien d’un sujet d’intérêt et d’un enjeu d’investissement majeur. Cependant, nous estimons que peu de nouvelles sont dignes d’intérêt, du moins d’un point de vue financier. Cette semaine, nous en soulignons deux qui sont nettement opposées et, pour cette raison, encore plus intéressantes.

Le premier concerne Meta et son projet d’investissement de 15 milliards de dollars pour acquérir 49 % de Scale AI, une start-up spécialisée dans les services d’étiquetage de données et d’évaluation de modèles (apprentissage automatique). Cette acquisition fait partie d’un projet plus vaste qui voit Meta Platform Inc. s’engager dans la création d’un laboratoire de recherche en intelligence artificielle (dont on sait très peu de choses) dédié à la réalisation d’une « superintelligence », un système d’IA hypothétique capable de surpasser les capacités cognitives humaines dans tous les domaines. Connue sous le nom de superintelligence artificielle (ASI), il s’agit d’une forme théorique (et nous insistons sur le terme « théorique ») d’IA qui surpasserait de loin l’intelligence humaine dans tous les domaines, y compris la résolution de problèmes, le raisonnement, la créativité et la compréhension des émotions. Elle représente le stade le plus élevé du développement de l’IA, dépassant ce que l’on appelle l’intelligence générale artificielle (AGI), qui vise à reproduire les capacités cognitives humaines, et constitue également un défi purement théorique (pour l’instant).

L’impulsion derrière ce nouveau laboratoire semble provenir de la frustration de Zuckerberg face aux lacunes perçues par Meta en matière de progrès de l’IA, notamment l’accueil mitigé du modèle Llama 4 et les retards de son modèle le plus ambitieux, Behemoth. L’objectif audacieux de Meta est de surpasser les autres entreprises technologiques dans cette bataille : en particulier, des concurrents tels que Google, OpenAI et Anthropic ont présenté une nouvelle génération de puissants modèles de « raisonnement » qui résolvent les problèmes en les décomposant étape par étape : et nous parlons ici de l’IAG. Cependant, Meta veut aller au-delà de l’AGI, avec la vision à long terme d’intégrer les capacités avancées de l’ASI dans la vaste suite de produits Meta, y compris les plateformes de médias sociaux, les outils de communication, les chatbots et les appareils dotés d’IA tels que les lunettes intelligentes Ray-Ban. Dans tout cela, elle a également pris en compte l’énorme quantité d’énergie requise par ces modèles et a signé un accord avec Constellation Energy, le principal exploitant de centrales nucléaires des États-Unis, pour acheter toute l’énergie produite par la centrale de Clinton, dans l’Illinois, pendant 20 ans à partir de 2027.

Et maintenant, la douche froide. Dans un article publié le week-end dernier, Apple affirme que les grands modèles de raisonnement (LRM), qui sont à la base de l’AGI et peut-être même de l’ASI (car les LLM ne peuvent certainement pas l’être), souffrent d’une « perte totale de précision » lorsqu’ils sont soumis à des problèmes très complexes. Il s’agissait de problèmes de type puzzle tels que la célèbre Tour de Hanoï.

Il s’avère que les modèles d’intelligence artificielle standard sont plus performants que les MLT dans les problèmes peu complexes, alors que les deux types de modèles subissent un « effondrement complet » dans les problèmes très complexes. Les MFR tentent de résoudre des questions complexes en générant des processus de pensée détaillés qui décomposent le problème en sous-problèmes plus petits à traiter de manière séquentielle. Il ne nous semble pas inutile de souligner que lorsque nous parlons d’IA, la complexité doit être comprise comme une « difficulté de calcul » ou, en banalisant à des fins d’explication, nous parlons de problèmes combinatoires.

L’étude, qui a testé la capacité des modèles à résoudre des énigmes, a ajouté que lorsque les MRL approchaient de l’effondrement des performances, ils commençaient à « réduire leur effort de raisonnement ». Des modèles tels que o3 d’OpenAI, Gemini Thinking de Google, Claude 3.7 Sonnet-Thinking d’Anthropic et DeepSeek-R1 ont été testés. Les chercheurs d’Apple ont déclaré qu’ils trouvaient ces preuves « particulièrement inquiétantes ».

L’étude a également montré que les GRL gaspillent de la puissance de calcul (et donc de l’électricité) en trouvant la bonne solution à des problèmes plus simples dans les premières étapes de leur « réflexion ». Toutefois, lorsque les problèmes deviennent légèrement plus complexes, les modèles explorent d’abord les mauvaises solutions et parviennent plus tard aux bonnes. En revanche, pour les problèmes plus complexes, les modèles s’effondrent et ne parviennent pas à générer de solutions correctes. Il est également arrivé qu’un algorithme permettant de résoudre le problème soit fourni, mais que les modèles échouent. À l’approche d’un seuil critique – qui correspond strictement au point d’effondrement de leur précision – les modèles commencent, de manière contre-intuitive, à réduire leur effort de raisonnement malgré la difficulté croissante du problème, ce qui suggère une limite d’évolutivité substantielle dans les capacités de raisonnement des GRL actuels, c’est-à-dire une limite fondamentale dans la généralisation (une propriété que tout modèle d’IA ou d’apprentissage automatique doit posséder) du raisonnement.

Ces résultats ne sont certes pas encourageants, et surtout, il est difficile de comprendre comment Meta peut parvenir à développer des modèles de superintelligence tout en consacrant des ressources importantes – financées en grande partie par les recettes publicitaires – pour attirer les meilleurs cerveaux dans ce domaine. Cependant, l’histoire de l’IA est ponctuée de flux et de reflux, comme dans le cas des réseaux neuronaux, qui ont été abandonnés pendant une longue période une fois qu’il a été établi que la contribution de nombreuses couches de « neurones » n’était pratiquement pas pertinente par rapport à la valeur ajoutée apportée par la dernière, avant de revenir en force en 2017 avec l’apprentissage profond (Deep Learning). Entre-temps, les efforts de recherche en apprentissage automatique se sont concentrés sur d’autres domaines et modèles (par exemple, les méthodes à noyau) qui ne sont pas moins utiles et importants.

Ce qui semble se dessiner à ce jour, c’est que le développement de l’AGI/ASI ne devra pas passer par les GRL, mais probablement par différents types de modèles ou par des révisions de ceux qui sont actuellement à l’étude. Ce qui semble se dessiner dans l’optique de l’investisseur, c’est un réexamen et une évaluation minutieuse du potentiel de l’IA en tant que thème d’investissement. Cela ne signifie nullement qu’il faille abandonner le thème ou sous-pondérer les positions du portefeuille relatives à ce thème. Cela signifie simplement : une pondération et une analyse plus prudentes des profils de « valeur » de ces investissements.

Avis de non-responsabilité

Ce billet exprime l’opinion personnelle des employés de Custodia Wealth Management qui l’ont rédigé. Il ne s’agit pas d’un conseil ou d’une recommandation d’investissement, d’un conseil personnalisé et ne doit pas être considéré comme une invitation à négocier des instruments financiers.