Y, de hecho, Sam Altman, director ejecutivo de OpenAI, dio la bienvenida la semana pasada a GPT 5. Una hora y media de retransmisión en directo para presentar el nuevo modelo GPT 5, que cuenta con cinco cambios importantes o, en palabras de Altman, «una actualización importante» del modelo GPT.
Estamos muy lejos de la inolvidable presentación del iPhone en 2007. Un contexto más íntimo (una sala de estar) donde, tras una breve introducción de Sam Altman, varios colaboradores del director ejecutivo se turnaron para profundizar en los cinco cambios fundamentales del modelo; los que nos interesan.
1. Vibe coding. Nos parece sin duda el aspecto más importante, quizás el único digno de mención. Se le pide a GPT que produzca un software especificando sus características y parece que el nuevo modelo es capaz de devolver un producto prácticamente terminado. Incluso parece que, al describir una sensación o un estado de ánimo, la IA es capaz de producir un sitio web dinámico (no solo HTML y CSS, sino también el código JavaScript correspondiente) coherente con estas emociones.
2. Tamaño. GPT 5 está disponible en tres versiones: estándar, mini y nano (solo disponible a través de API). Los usuarios gratuitos de ChatGPT tendrán acceso tanto a la versión estándar como a la mini, mientras que los suscriptores de ChatGPT Plus disfrutarán de límites de uso más altos en toda la línea. Un usuario de US Pro que paga 200 dólares al mes tendrá acceso ilimitado a GPT-5, además del modelo más potente gpt-5-pro y gpt-5-thinking. Ambos requieren más tiempo para proporcionar respuestas, pero ofrecen respuestas más detalladas y meditadas.
3. Personalización. El tono lo es todo. De hecho, con GPT 5, el usuario podrá elegir el tipo de interacción que desee. Además de la estándar que ofrece ChatGPT, el usuario podrá solicitar la «Cynic» para obtener respuestas sarcásticas, la «Listener» para interactuar con un interlocutor comprensivo que también permita desahogarse; pero también la «Nerd», que no necesita explicaciones, y la «Robot», para respuestas puramente mecánicas que imaginamos que se utilizará para consultas científicas.
4. Voz. OpenAI está lanzando una versión de interacción por voz, notablemente mejorada, que no solo funciona con GPT personalizados, sino que también adapta el tono y el estilo de conversación según las instrucciones del usuario y el ambiente general. El usuario podrá solicitar a la IA una interacción vocal más animada, más lenta, más cálida o cualquier otra cosa que desee. Para los usuarios de ChatGPT Plus, las respuestas vocales ya son casi ilimitadas. Los usuarios gratuitos también siguen teniendo acceso, con algunas horas al día para chatear sin usar las manos. Para simplificar las cosas, el antiguo modo de voz estándar se eliminará por completo en el plazo de un mes. A partir de entonces, todo el mundo podrá disfrutar de la misma experiencia actualizada.
5. Google. Probablemente a partir de esta semana, los usuarios de ChatGPT Pro podrán conectar directamente Gmail, Google Calendar y Google Contacts a ChatGPT. Esto significa que ya no será necesario pasar de una pestaña a otra para comprobar si estás libre el próximo martes o buscar entre las conversaciones para encontrar ese correo electrónico al que seguramente te has olvidado de responder. Una vez conectado, ChatGPT recuperará lo que necesite para ayudar al usuario a responder a las preguntas. OpenAI ha asegurado a los usuarios que solo recuperará lo mínimo necesario y solo cuando sea útil. No será necesario decir «comprueba mi calendario» o «recupera ese contacto». La IA lo hará en función de la solicitud: supongamos que el usuario tiene que concertar una cita; la IA elegirá una hora y escribirá el correo electrónico en nombre del usuario. Otros niveles de suscripción tendrán acceso a las conexiones en un futuro próximo, ampliando esta función más allá de la versión Pro.
Sin embargo, la principal limitación de esta «importante actualización» parece ser que no supera el límite de la AGI. Como ya mencionamos en nuestro análisis del 13 de junio de 2025, la Inteligencia Artificial General tiene como objetivo replicar las capacidades cognitivas humanas, pero sigue siendo un reto puramente teórico que GPT 5 ciertamente no ha superado. La principal innovación técnica en la base de GPT-5 parece ser la introducción de un «enrutador». Este decide a qué modelo de GPT delegar cuando se formula una pregunta, preguntándose esencialmente cuánto esfuerzo invertir en el cálculo de las respuestas. Las opciones de delegación incluyen los modelos anteriores, los actuales (incluido gpt-5-thinking, y aún no está claro qué es realmente) y los futuros modelos integrados en GPT. Por lo tanto, se podría suponer que este modelo es, en realidad, solo otra forma de controlar los modelos existentes con consultas repetidas y empujarlos a trabajar más hasta producir mejores resultados, y que constituye en sí mismo una sospecha más que fundada del límite que los LLM no podrán superar (es decir, precisamente la AGI).
Para comprender mejor este punto, y teniendo en cuenta que en nuestro anterior análisis del 13 de junio de 2025 los dimos por sentado, creemos que conviene dedicar unas palabras a aclarar qué son los modelos de lenguaje grandes (LLM) y cómo funcionan.
En 2017, algunos investigadores de Google trabajaron en nuevos modelos de aprendizaje automático (ML) capaces de capturar patrones extremadamente complejos dentro de largas secuencias de palabras que subyacen a la estructura del lenguaje humano. Al entrenarlos con grandes cantidades de texto (de ahí el nombre «lenguaje de gran tamaño»), los modelos podían responder a las solicitudes de un usuario mapeando una secuencia de palabras con su continuación más probable, de acuerdo con los patrones presentes en la base de datos textual. Estos patrones no son más que enormes tablas de estímulos y respuestas: una consulta del usuario es un estímulo que desencadena la búsqueda en la tabla para encontrar la mejor respuesta. Mientras que los modelos tradicionales de ML aprenden calibrando los parámetros del modelo para llegar a la mejor respuesta entre las previstas en la tabla, en los LLM se pueden modificar adecuadamente las solicitudes para dirigirlas a los modelos más adecuados o para solicitarlas varias veces con el fin de obtener la respuesta más adecuada. Esto es exactamente lo que hace el «enrutador» de GPT 5: descompone las solicitudes más complejas en solicitudes más simples y las clasifica. Esto podría justificar la afirmación, defendida por muchos, de que los LLM no tienen capacidad de evolución adicional. Para poder dar mejores respuestas, varios modelos (especializados en determinados temas) deben colaborar «orquestando» su trabajo en función de las consultas debidamente desglosadas y dirigidas al modelo más adecuado, donde la respuesta final sea una composición de respuestas puntuales. Si fuera así, tendríamos que dar la razón a aquellos científicos y expertos del sector que llevan tiempo sosteniendo que no será posible superar los límites actuales de la IA sin ir más allá de las arquitecturas LLM.
Volviendo al GPT 5 y continuando con su análisis, observamos que incluso la calidad de la escritura parece haber logrado solo un progreso lineal; no está mal, pero ciertamente no es compatible con las mejoras típicamente exponenciales a las que nos ha acostumbrado la tecnología.
Por otro lado, parece interesante el uso de la IA en términos matemáticos (pero también científicos) y de programación entendida como producción de soluciones de software.
Anthropic, competidor de OpenAI, ha dominado el mercado hasta la fecha, pero GPT-5 ha superado ligeramente al último modelo de Anthropic en SWE-bench Verified, una prueba a nivel industrial para evaluar las capacidades de programación. Esto ha permitido a OpenAI conquistar usuarios importantes, entre ellos el equipo de Any sphere, cuyo popular asistente de codificación Cursor es uno de los principales clientes de Anthropic: Lograr migrar a sus usuarios a GPT 5 supondría un importante impulso para los ingresos recurrentes anuales de OpenAI, que ya cuenta con unos ingresos recurrentes anuales (ARR) de 12 000 millones de dólares, con perspectivas de alcanzar los 20 000 millones a finales de 2025.
OpenAI está valorada actualmente en unos 300 000 millones de dólares, con 700 millones de usuarios activos semanalmente, muchos de los cuales pagan suscripciones mensuales de entre 20 y 200 dólares, que constituyen la principal fuente de ingresos del producto.
Se prevé que GPT 5, precisamente gracias a su posicionamiento frente a la competencia, sea capaz de aportar un aumento significativo a la valoración de la empresa de San Francisco: se está debatiendo una nueva valoración de 500 000 millones de dólares, lo que la convertiría en la empresa tecnológica privada más valiosa del mundo. Pero, aparte de la notable mejora en la parte de programación, hay muchos aspectos que aconsejan prudencia, entre ellos las escasas mejoras en las capacidades de razonamiento y conocimiento en comparación con competidores como Grok 4 Heavy de xAI (obtiene un 42 % en el «Humanity’s Last Exam» frente al 44 % de su competidor), la limitación tecnológica que parecen representar los LLM, que constituyen la columna vertebral de GPT, el riesgo —considerado alto— de un uso peligroso (como, por ejemplo, la creación de armas biológicas o nuevos virus por parte de principiantes) y la siempre inminente competencia china (DeepSeek).
Descargo de responsabilidad
Esta publicación expresa la opinión personal de los colaboradores de Custodia Wealth Management que la han redactado. No se trata de consejos o recomendaciones de inversión, ni de asesoramiento personalizado, y no debe considerarse como una invitación a realizar transacciones con instrumentos financieros.