A estas alturas, las noticias sobre inteligencia artificial (IA) se suceden a diario, si no intradiariamente: señal de que, efectivamente, es un tema de interés, además de una cuestión de inversión importante. Sin embargo, creemos que pocas noticias son dignas de mención, al menos desde un punto de vista financiero. Esta semana destacamos dos que son marcadamente opuestas y por ello aún más interesantes.
La primera se refiere a Meta y su inversión prevista de 15.000 millones de dólares para adquirir el 49% de Scale AI, una start-up especializada en servicios de etiquetado de datos y evaluación de patrones (aprendizaje automático). Esta adquisición forma parte de un proyecto más amplio según el cual Meta Platform Inc. se compromete a crear un laboratorio de investigación de inteligencia artificial (del que se sabe muy poco) dedicado a lograr la «superinteligencia», un hipotético sistema de IA capaz de superar las capacidades cognitivas humanas en todos los ámbitos. Conocida como Superinteligencia Artificial (ASI), es una forma teórica (y subrayamos lo de teórica) de IA que superaría con creces la inteligencia humana en todos los aspectos, incluida la resolución de problemas, el razonamiento, la creatividad y la comprensión emocional. Representa el estadio más alto del desarrollo de la IA, superando a la llamada Inteligencia General Artificial (AGI), que pretende replicar las capacidades cognitivas humanas, y también es obviamente un reto puramente teórico (por el momento).
El ímpetu de este nuevo laboratorio parece surgir de la frustración de Zuckerberg ante las deficiencias percibidas por Meta en el progreso de la IA, incluida la desigual acogida del modelo Llama 4 y los retrasos de su modelo más ambicioso, Behemoth. El audaz objetivo de Meta es superar a otras empresas tecnológicas en esta batalla: en concreto, competidores como Google, OpenAI y Anthropic han presentado una nueva generación de potentes modelos de «razonamiento» que resuelven problemas desglosándolos paso a paso: y aquí hablamos de AGI. Sin embargo, Meta quiere ir más allá de la AGI, con la visión a largo plazo de integrar las capacidades avanzadas de ASI en el vasto conjunto de productos de Meta, incluyendo plataformas de medios sociales, herramientas de comunicación, chatbots y dispositivos habilitados para IA, como las gafas inteligentes Ray-Ban. En todo esto, también ha tenido en cuenta la enorme cantidad de energía que requieren estos modelos y ha firmado un acuerdo con Constellation Energy, el principal operador de centrales nucleares del país de las barras y estrellas, para comprar toda la energía producida por la central de Clinton, en Illinois, durante 20 años a partir de 2027.
Y ahora la ducha fría. En un artículo publicado el pasado fin de semana, Apple afirmaba que los Modelos de Razonamiento Amplio (LRM), la base de la AGI y quizá incluso de la ASI (porque los LLM desde luego no pueden serlo), sufrían un «colapso total de la precisión» cuando se les sometía a problemas muy complejos. Se trataba de rompecabezas como la famosa Torre de Hanoi.
Resulta que los modelos estándar de inteligencia artificial superan a los LRM en problemas de baja complejidad, mientras que ambos tipos de modelos sufren un «colapso total» en problemas de alta complejidad. Los LRM intentan resolver cuestiones complejas generando procesos de pensamiento detallados que descomponen el problema en subproblemas más pequeños que deben abordarse secuencialmente. No consideramos inútil señalar que, cuando hablamos de IA, la complejidad debe entenderse como «dificultad computacional» o, trivializando a efectos explicativos, hablamos de problemas combinatorios.
El estudio, que puso a prueba la capacidad de los modelos para resolver rompecabezas, añadió que cuando los LRM se acercaban al colapso de rendimiento, empezaban a «reducir su esfuerzo de razonamiento». Se probaron modelos como o3 de OpenAI, Gemini Thinking de Google, Sonnet-Thinking de Claude 3.7 de Anthropic y DeepSeek-R1. Los investigadores de Apple declararon que estas pruebas les parecían «especialmente preocupantes».
El documento también descubrió que los LRM derrochan potencia de cálculo (y, por tanto, electricidad) al encontrar la solución correcta a problemas más sencillos en las primeras fases de su «pensamiento». Sin embargo, cuando los problemas se vuelven algo más complejos, los modelos exploran primero las soluciones erróneas y llegan a las correctas más tarde. Sin embargo, en problemas de mayor complejidad, los modelos entran en «colapso» y no consiguen generar ninguna solución correcta. También hubo un caso en el que, una vez proporcionado un algoritmo que resolviera el problema, los modelos fallaron. Al acercarse a un umbral crítico -que se corresponde estrictamente con el punto de colapso de su precisión-, los modelos empiezan, de forma contraintuitiva, a reducir su esfuerzo de razonamiento a pesar de la dificultad creciente del problema, y esto sugiere un límite sustancial de escalabilidad en las capacidades de razonamiento de los LRM actuales, es decir, un límite fundamental en la generalización (una propiedad que debe poseer cualquier modelo de IA o aprendizaje automático) del razonamiento.
Estos resultados no son ciertamente alentadores y, sobre todo, resulta difícil entender cómo Meta puede llegar a desarrollar modelos de superinteligencia mientras dedica importantes recursos -en gran parte financiados con ingresos publicitarios- a captar a las mejores mentes en este campo. Sin embargo, la historia de la IA está salpicada de flujos y reflujos, como en el caso de las redes neuronales, que se abandonaron durante un largo periodo de tiempo una vez que se estableció que la contribución de muchas capas de «neuronas» era prácticamente irrelevante en comparación con el valor añadido que aportaba la última, para luego regresar a lo grande en 2017 con el Deep Learning. Mientras tanto, los esfuerzos de investigación en aprendizaje automático se han centrado en otras áreas y modelos (por ejemplo, métodos kernel) que no son menos útiles e importantes.
Lo que parece emerger hasta la fecha es que el desarrollo de AGI/ASI no tendrá que pasar por los LRM, sino probablemente por diferentes tipos de modelos o revisiones de los actualmente en estudio. Lo que parece estar surgiendo bajo la lente del inversor es una reconsideración y una cuidadosa ponderación del potencial de la IA como tema de inversión. Esto no significa en absoluto abandonar el tema o infraponderar las posiciones de cartera relacionadas con él. Significa simplemente: una ponderación y un análisis más cuidadosos de los perfiles de «valor» de estas inversiones.
Descargo de responsabilidad
Este post expresa la opinión personal de los empleados de Custodia Wealth Management que lo han escrito. No se trata de un consejo o recomendación de inversión, ni de asesoramiento personalizado, y no debe considerarse como una invitación a operar con instrumentos financieros.