IA, IA, IA

Atualmente, as notícias sobre a inteligência artificial (IA) surgem diariamente, se não mesmo intra-diariamente: um sinal de que se trata, de facto, de um tema de interesse, bem como de uma questão de investimento importante. No entanto, consideramos que poucas notícias são dignas de nota, pelo menos do ponto de vista financeiro. Esta semana, destacamos duas que são marcadamente opostas e, por essa razão, ainda mais interessantes.

O primeiro diz respeito à Meta e ao seu investimento previsto de 15 mil milhões de dólares para adquirir 49% da Scale AI, uma empresa em fase de arranque especializada em serviços de rotulagem de dados e avaliação de padrões (aprendizagem automática). Esta aquisição faz parte de um projeto mais vasto que prevê que a Meta Platform Inc. se dedique à criação de um laboratório de investigação em inteligência artificial (de que se sabe muito pouco) dedicado a alcançar a “superinteligência”, um hipotético sistema de IA capaz de ultrapassar as capacidades cognitivas humanas em todos os domínios. Conhecida como Superinteligência Artificial (ASI), é uma forma teórica (e sublinhamos teórica) de IA que ultrapassaria de longe a inteligência humana em todos os aspectos, incluindo a resolução de problemas, o raciocínio, a criatividade e a compreensão emocional. Representa a fase mais elevada do desenvolvimento da IA, ultrapassando a chamada Inteligência Artificial Geral (AGI), que tem como objetivo replicar as capacidades cognitivas humanas, e é também obviamente um desafio puramente teórico (por enquanto).

O ímpeto por detrás deste novo laboratório parece resultar da frustração de Zuckerberg com as falhas sentidas pela Meta no progresso da IA, incluindo a receção mista do modelo Llama 4 e os atrasos do seu modelo mais ambicioso, o Behemoth. O objetivo audacioso da Meta é ultrapassar outras empresas tecnológicas nesta batalha: em particular, concorrentes como a Google, a OpenAI e a Anthropic apresentaram uma nova geração de poderosos modelos de “raciocínio” que resolvem problemas decompondo-os passo a passo: e aqui estamos a falar de AGI. No entanto, a Meta quer ir além da AGI, com a visão a longo prazo de integrar as capacidades avançadas da ASI no vasto conjunto de produtos da Meta, incluindo plataformas de redes sociais, ferramentas de comunicação, chatbots e dispositivos com IA, como os óculos inteligentes Ray-Ban. Em tudo isto, teve também em conta a enorme quantidade de energia necessária para estes modelos e assinou um acordo com a Constellation Energy, o principal operador de centrais nucleares dos EUA, para comprar toda a energia produzida pela central eléctrica de Clinton, no Illinois, durante 20 anos, a partir de 2027.

E agora a ducha fria. Em um artigo publicado no último fim de semana, a Apple afirmou que os Modelos de Raciocínio Amplo (LRMs), a base da AGI e talvez até da ASI (porque os LLMs certamente não podem ser), sofreram um “colapso total na precisão” quando submetidos a problemas muito complexos. Esses problemas eram quebra-cabeças, como a famosa Torre de Hanói.

Acontece que os modelos de inteligência artificial padrão superam os LRMs em problemas de baixa complexidade, enquanto ambos os tipos de modelos sofrem um “colapso total” em problemas de alta complexidade. Os LRMs tentam resolver questões complexas gerando processos de pensamento detalhados que dividem o problema em subproblemas menores a serem abordados sequencialmente. Não consideramos inútil salientar que, quando falamos de IA, a complexidade deve ser entendida como “dificuldade computacional” ou, trivializando para fins explicativos, falamos de problemas combinatórios.

O estudo, que testou a capacidade dos modelos de resolver quebra-cabeças, acrescentou que quando os LRMs se aproximavam do colapso de desempenho, eles começavam a “reduzir seu esforço de raciocínio”. Foram testados modelos como o o3 da OpenAI, o Gemini Thinking do Google, o Claude 3.7 Sonnet-Thinking da Anthropic e o DeepSeek-R1. Os pesquisadores da Apple afirmaram que consideraram essa evidência “particularmente preocupante”.

O artigo também constatou que os LRMs desperdiçam potência de computação (e, portanto, eletricidade) ao encontrar a solução correta para problemas mais simples nos estágios iniciais de seu “raciocínio”. Entretanto, quando os problemas se tornam um pouco mais complexos, os modelos exploram as soluções erradas primeiro e chegam às corretas mais tarde. Para problemas de maior complexidade, entretanto, os modelos entram em “colapso”, não conseguindo gerar nenhuma solução correta. Houve também um caso em que, uma vez fornecido um algoritmo que resolveria o problema, os modelos falharam. Ao se aproximarem de um limiar crítico – que corresponde estritamente ao ponto de colapso de sua precisão – os modelos, de forma contra-intuitiva, começam a reduzir seu esforço de raciocínio, apesar da dificuldade crescente do problema, e isso sugere um limite substancial de escalabilidade nos recursos de raciocínio dos LRMs atuais, ou seja, um limite fundamental na generalização (uma propriedade que qualquer modelo de IA ou de aprendizado de máquina deve possuir) do raciocínio.

Esses resultados certamente não são animadores e, acima de tudo, é difícil entender como o Meta consegue desenvolver modelos de superinteligência e, ao mesmo tempo, dedicar recursos significativos – em grande parte financiados pela receita de publicidade – para atrair as melhores mentes nesse campo. No entanto, a história da IA é pontuada por fluxos e refluxos, como no caso das redes neurais, que foram abandonadas por um longo período de tempo depois que se estabeleceu que a contribuição de muitas camadas de “neurônios” era praticamente irrelevante em comparação com o valor agregado fornecido pela última, e depois retornaram em grande estilo em 2017 com a Aprendizagem Profunda. Nesse meio tempo, os esforços de pesquisa em aprendizado de máquina se concentraram em outras áreas e modelos (por exemplo, métodos de kernel) que não são menos úteis e importantes.

O que parece estar surgindo até o momento é que o desenvolvimento da AGI/ASI não precisará passar por LRMs, mas provavelmente por diferentes tipos de modelos ou revisões dos que estão sendo estudados atualmente. O que parece estar surgindo sob as lentes do investidor é uma reconsideração e uma ponderação cuidadosa do potencial da IA como tema de investimento. Isso não significa, de forma alguma, o abandono do tema ou a subponderação das posições do portfólio relacionadas ao tema. Significa simplesmente: ponderação e análise mais cuidadosas dos perfis de “valor” desses investimentos.

Disclaimer

Il presente post esprime l’opinione personale dei collaboratori di Custodia Wealth Management che lo hanno redatto. Non si tratta di consigli o raccomandazioni di investimento, di consulenza personalizzata e non deve essere considerato come invito a svolgere transazioni su strumenti finanziari.