ИИ, ИИ, ИИ

На сегодняшний день новости об искусственном интеллекте (ИИ) появляются ежедневно, а то и внутри дня: это признак того, что он действительно представляет интерес и является одним из основных инвестиционных вопросов. Однако мы считаем, что лишь немногие новости заслуживают внимания, по крайней мере с финансовой точки зрения. На этой неделе мы выделим две, которые являются прямо противоположными и по этой причине даже более интересными.

Первая касается компании Meta и ее запланированных инвестиций в размере 15 миллиардов долларов в приобретение 49% акций Scale AI, стартапа, специализирующегося на маркировке данных и услугах по оценке шаблонов (машинное обучение). Это приобретение является частью более масштабного проекта, в рамках которого Meta Platform Inc. занимается созданием (о которой пока мало что известно) исследовательской лаборатории искусственного интеллекта, нацеленной на достижение «суперинтеллекта» – гипотетической системы ИИ, способной превзойти человеческие когнитивные способности во всех областях. Известный как искусственный сверхинтеллект (ASI), он представляет собой теоретическую (подчеркиваем, теоретическую) форму ИИ, которая будет значительно превосходить человеческий интеллект во всех аспектах, включая решение проблем, рассуждения, творчество и эмоциональное понимание. Он представляет собой высшую стадию развития ИИ, превосходящую так называемый искусственный общий интеллект (ИОИ), который стремится повторить когнитивные способности человека, и также, очевидно, является чисто теоретической задачей (пока что).

По всей видимости, толчком к созданию новой лаборатории послужило недовольство Цукерберга недостатками Meta в развитии искусственного интеллекта, включая неоднозначную оценку модели Llama 4 и задержки с разработкой самой амбициозной модели Behemoth. Дерзкая цель Meta – превзойти другие технологические компании в этой битве: в частности, такие конкуренты, как Google, OpenAI и Anthropic, представили новое поколение мощных «рассуждающих» моделей, которые решают проблемы, разбивая их на шаги: и здесь мы говорим об AGI. Однако компания Meta хочет выйти за рамки AGI и в долгосрочной перспективе интегрировать передовые возможности ASI в обширный набор продуктов Meta, включая платформы для социальных сетей, коммуникационные инструменты, чат-боты и устройства с поддержкой ИИ, такие как умные очки Ray-Ban. При всем этом компания также учитывает огромное количество энергии, необходимой для работы этих моделей, и подписала соглашение с Constellation Energy, ведущим оператором атомных электростанций в звездно-полосатой стране, о покупке всей энергии, производимой электростанцией Clinton в Иллинойсе, в течение 20 лет, начиная с 2027 года.

А теперь холодный душ. В статье, опубликованной в минувшие выходные, компания Apple утверждает, что большие модели рассуждений (Large Reasoning Models, LRM), лежащие в основе AGI и, возможно, даже ASI (потому что LLM, конечно, не могут быть таковыми), страдают «полным снижением точности» при решении очень сложных задач. Это были задачи-головоломки, такие как знаменитая Ханойская башня.

Оказалось, что стандартные модели искусственного интеллекта превосходят LRM в задачах с низкой сложностью, в то время как оба типа моделей терпят «полный крах» в задачах с высокой сложностью. LRM пытаются решить сложные вопросы, генерируя подробные мыслительные процессы, которые разбивают проблему на более мелкие подпроблемы, подлежащие последовательному решению. Мы не считаем бесполезным указывать на то, что, когда мы говорим об ИИ, сложность следует понимать как «вычислительную трудность» или, тривиализируя в целях объяснения, говорить о комбинаторных проблемах.

В исследовании, в котором проверялась способность моделей решать головоломки, добавляется, что когда производительность LRM приближалась к краху, они начинали «снижать свои усилия по рассуждению». Были протестированы такие модели, как o3 от OpenAI, Gemini Thinking от Google, Claude 3.7 Sonnet-Thinking от Anthropic и DeepSeek-R1. Исследователи Apple заявили, что находят эти данные «особенно тревожными».

Авторы также обнаружили, что LRM тратят вычислительную мощность (а значит, и электроэнергию), находя правильные решения для более простых задач на ранних этапах своего «мышления». Однако, когда задачи становятся немного сложнее, модели сначала ищут неправильные решения, а затем приходят к правильным. Однако при решении задач повышенной сложности модели впадают в состояние «коллапса», так и не сумев выработать ни одного правильного решения. Был также случай, когда после получения алгоритма, который решал проблему, модели терпели крах. При приближении к критическому порогу, который строго соответствует точке краха точности, модели интуитивно начинают снижать усилия по рассуждению, несмотря на возрастающую сложность задачи, что говорит о существенном пределе масштабируемости в возможностях рассуждения текущих LRM, то есть о фундаментальном пределе обобщения (свойство, которым должна обладать любая модель ИИ или машинного обучения) рассуждения.

Эти результаты, конечно, не радуют, и, прежде всего, трудно понять, как Мета может ухитряться разрабатывать модели сверхразума, выделяя при этом значительные средства – в основном за счет доходов от рекламы – на привлечение лучших умов в этой области. Однако в истории ИИ есть свои приливы и отливы, как в случае с нейронными сетями, от которых надолго отказались, когда выяснилось, что вклад многих слоев «нейронов» практически не имеет значения по сравнению с добавленной стоимостью, которую дает последний из них, а затем вернулись с большим размахом в 2017 году с Deep Learning. Тем временем исследовательские усилия в области машинного обучения были направлены на другие области и модели (например, методы ядра), которые не менее полезны и важны.

На сегодняшний день складывается впечатление, что развитие AGI/ASI будет происходить не через LRM, а, вероятно, через различные типы моделей или пересмотр тех, которые изучаются в настоящее время. Что, по-видимому, должно появиться в поле зрения инвестора, так это переосмысление и тщательное взвешивание потенциала ИИ в качестве инвестиционной темы. Это ни в коем случае не означает отказ от темы или снижение веса позиций портфеля, относящихся к этой теме. Это просто означает: более тщательное взвешивание и анализ «стоимостного» профиля этих инвестиций.

Отказ от ответственности

Данный пост выражает личное мнение сотрудников Custodia Wealth Management, которые его написали. Она не является инвестиционным советом или рекомендацией, персональным советом и не должна рассматриваться как приглашение к торговле финансовыми инструментами.