E, de facto, Sam Altman, CEO da OpenAI, na semana passada, deu o cinco: GPT 5. Uma hora e meia de transmissão ao vivo para apresentar o novo modelo GPT 5, que ostenta cinco mudanças significativas ou, nas palavras de Altman, «uma atualização importante» ao modelo GPT.
Estamos muito longe da inesquecível apresentação do iPhone em 2007. Um contexto mais íntimo (uma sala de estar) onde, após uma breve introdução de Sam Altman, vários colaboradores do CEO se revezaram para aprofundar as 5 mudanças fundamentais do modelo; aquelas que nos interessam.
1. Vibe coding. Para nós, este parece ser definitivamente o aspeto mais importante, talvez o único digno de nota. Pede-se ao GPT para produzir um software, especificando as suas características, e parece que o novo modelo é capaz de devolver um produto praticamente acabado. Parece mesmo que, ao descrever uma sensação ou um estado de espírito, a IA é capaz de produzir um site dinâmico (não só HTML e CSS, mas também o código JavaScript correspondente) coerente com essas emoções.
2. Dimensões. O GPT 5 está disponível em 3 versões: padrão, mini e nano (disponível apenas através da API). Os utilizadores gratuitos do ChatGPT terão acesso tanto à versão padrão como à mini, enquanto os assinantes do ChatGPT Plus terão limites de utilização mais elevados em toda a linha. Um utilizador US Pro que paga 200 dólares por mês terá acesso ilimitado ao GPT-5, bem como ao modelo mais potente gpt-5-pro e ao gpt-5-thinking. Ambos requerem mais tempo para fornecer respostas, mas devolvem respostas mais aprofundadas e ponderadas.
3. Personalização. É o tom que faz a música. E, de facto, com o GPT 5, o utilizador poderá escolher o tipo de interação que deseja. Além da padrão oferecida pelo ChatGPT, o utilizador poderá solicitar o «Cynic» para obter respostas sarcásticas, o «Listener» para interagir com um interlocutor compreensivo que também permite desabafos; mas também o «Nerd», que não precisa de explicações, e o «Robot», para respostas puramente mecânicas que imaginamos que serão utilizadas para consultas científicas.
4. Voz. A OpenAI está a lançar uma versão de interação por voz, consideravelmente melhorada, que não só funciona com GPT personalizados, mas também adapta o tom e o estilo da conversa de acordo com as instruções do utilizador e a atmosfera geral. O utilizador poderá solicitar à IA uma interação de voz mais animada, mais lenta, mais calorosa ou qualquer outra coisa que desejar. Para os utilizadores do ChatGPT Plus, as respostas de voz já são quase ilimitadas. Os utilizadores gratuitos também continuam a ter acesso, com algumas horas por dia para conversar sem usar as mãos. Para simplificar as coisas, o antigo modo de voz padrão será completamente eliminado dentro de um mês. Depois disso, todos poderão desfrutar da mesma experiência atualizada.
5. Google. Provavelmente já a partir desta semana, os utilizadores do ChatGPT Pro poderão conectar diretamente o Gmail, o Google Calendar e o Google Contacts ao ChatGPT. Isso significa que não será mais necessário alternar entre abas para verificar se você está livre na próxima terça-feira ou procurar nas conversas para encontrar aquele e-mail que você certamente esqueceu de responder. Uma vez conectado, o ChatGPT recuperará o que for necessário para ajudar o utilizador a responder às perguntas. A OpenAI garantiu aos utilizadores que recuperará apenas o mínimo necessário e somente quando for útil. Não será necessário dizer «verifica o meu calendário» ou «recupera esse contacto». A IA fará isso com base na solicitação: suponhamos que o utilizador precise marcar uma reunião; a IA escolherá um horário e escreverá o e-mail em nome do próprio utilizador. Outros níveis de assinatura terão acesso às conexões em um futuro próximo, expandindo essa função para além da versão Pro.
A principal limitação desta «importante atualização» parece, no entanto, ser o facto de não ultrapassar o limite da AGI. Como já mencionado na nossa análise de 13 de junho de 2025, a Inteligência Artificial Geral visa replicar as capacidades cognitivas humanas, mas continua a ser um desafio puramente teórico que certamente não foi vencido pelo GPT 5. A principal inovação técnica subjacente ao GPT-5 parece ser a introdução de um «router». Este decide a que modelo de GPT delegar quando é feita uma pergunta, essencialmente perguntando-se quanto esforço investir no cálculo das respostas. As opções de delegação incluem os modelos anteriores, os atuais (incluindo o gpt-5-thinking – e ainda não está claro o que ele realmente é) e os futuros modelos integrados no GPT. Pode-se então supor que este modelo seja, na realidade, apenas outra forma de controlar os modelos existentes com consultas repetidas e levá-los a trabalhar mais até produzirem melhores resultados, constituindo por si só uma suspeita mais do que fundamentada do limite que os LLM não conseguirão ultrapassar (ou seja, precisamente a AGI).
Para compreender melhor este ponto – e considerando que também na nossa análise anterior de 13 de junho de 2025 os demos como certos – consideramos que é oportuno dizer algumas palavras para esclarecer o que são os Large Language Model (LLM) e como funcionam.
Em 2017, alguns investigadores da Google trabalharam em novos modelos de Machine Learning (ML) capazes de capturar padrões extremamente complexos dentro de longas sequências de palavras que subjazem à estrutura da linguagem humana. Ao treiná-los com grandes quantidades de texto (daí o nome «linguagem de grande dimensão»), os modelos podiam responder a solicitações de um utilizador, mapeando uma sequência de palavras para a sua continuação mais provável, de acordo com os padrões presentes na base de dados textual. Esses padrões nada mais são do que enormes tabelas de estímulos e respostas: uma consulta do utilizador é um estímulo que desencadeia a pesquisa na tabela para encontrar a melhor resposta. Enquanto os modelos tradicionais de ML aprendem calibrando os parâmetros do modelo para chegar à melhor resposta entre as previstas na tabela, nos LLM é possível modificar adequadamente as solicitações para direcioná-las aos modelos mais adequados ou para solicitá-las várias vezes para obter a resposta mais adequada. Isso é exatamente o que o «router» do GPT 5 faz: decompõe as solicitações mais complexas em solicitações mais simples e as classifica. Isso poderia justificar a afirmação — defendida por muitos — de que os LLM não têm capacidade evolutiva adicional. Para poder dar respostas melhores, vários modelos (especializados em determinados tópicos) devem colaborar, «orquestrando» o seu trabalho com base em perguntas devidamente decompostas e direcionadas para o melhor modelo, onde a resposta final é uma composição de respostas pontuais. Se assim fosse, teríamos de dar razão aos cientistas e especialistas do setor que há muito defendem que não será possível ultrapassar os limites atuais da IA sem ir além das arquiteturas LLM.
Voltando ao GPT 5 e continuando a sua análise, notamos que também a qualidade da escrita parece ter alcançado apenas um progresso linear; nada mal, mas certamente não compatível com as melhorias tipicamente exponenciais a que a tecnologia nos habituou.
Por outro lado, parece ser interessante o uso da IA em termos matemáticos (mas também científicos) e de programação entendida como produção de soluções de software.
A Anthropic, concorrente da OpenAI, dominou o mercado até hoje, mas o GPT-5 superou ligeiramente o último modelo da Anthropic no SWE-bench Verified, um teste industrial para capacidades de programação. Isso permitiu à OpenAI conquistar utilizadores importantes, incluindo a equipa da Any sphere, cujo popular assistente de codificação Cursor é um dos maiores clientes da Anthropic: Conseguir migrar os seus utilizadores para o GPT 5 proporcionaria um impulso significativo às receitas recorrentes anuais da OpenAI, que já apresenta uma receita anual recorrente (ARR) de 12 mil milhões de dólares, com a perspetiva de a aumentar para 20 mil milhões até ao final de 2025.
A OpenAi está avaliada atualmente em cerca de 300 mil milhões de dólares, com 700 milhões de utilizadores ativos semanalmente, muitos dos quais pagam assinaturas mensais de 20 a 200 dólares, que constituem a principal fonte de receita do produto.
Prevê-se que o GPT 5 – precisamente devido ao seu posicionamento em relação à concorrência – seja capaz de aumentar significativamente a avaliação da empresa de São Francisco: está-se a discutir uma nova avaliação de 500 mil milhões de dólares, o que a tornaria a empresa tecnológica privada mais valiosa do mundo. Mas, além da melhoria significativa na programação, há muitos pontos negativos que recomendam cautela, incluindo as poucas melhorias nas capacidades de raciocínio e conhecimento em relação a concorrentes como o Grok 4 Heavy da xAI (totaliza 42% no «Humanity’s Last Exam» em comparação com os 44% do concorrente), o limite tecnológico que os LLM parecem representar e que constituem a espinha dorsal do GPT, o risco – considerado alto – de seu uso perigoso (como, por exemplo, a criação de armas biológicas ou novos vírus por parte de iniciantes) e a sempre iminente concorrência chinesa (DeepSeek).
Aviso legal
Este post expressa a opinião pessoal dos colaboradores da Custodia Wealth Management que o redigiram. Não se trata de conselhos ou recomendações de investimento, nem de consultoria personalizada, e não deve ser considerado como um convite para realizar transações com instrumentos financeiros.