KI, KI, K

Nachrichten über künstliche Intelligenz (KI) gibt es heutzutage täglich, wenn nicht sogar täglich: ein Zeichen dafür, dass es sich tatsächlich um ein interessantes Thema und eine wichtige Investitionsfrage handelt. Wir sind jedoch der Meinung, dass nur wenige Nachrichten bemerkenswert sind, zumindest aus finanzieller Sicht. In dieser Woche stellen wir zwei Nachrichten vor, die sehr gegensätzlich und deshalb umso interessanter sind.

Die erste betrifft Meta und seine geplante Investition in Höhe von 15 Mrd. USD für die Übernahme von 49 % von Scale AI, einem Start-up-Unternehmen, das sich auf die Kennzeichnung von Daten und die Auswertung von Mustern (maschinelles Lernen) spezialisiert hat. Diese Übernahme ist Teil eines umfassenderen Projekts, in dessen Rahmen Meta Platform Inc. ein Forschungslabor für künstliche Intelligenz (über das nur sehr wenig bekannt ist) einrichten will, um eine „Superintelligenz“ zu erreichen, ein hypothetisches KI-System, das die kognitiven Fähigkeiten des Menschen in allen Bereichen übertreffen kann. Bei der so genannten künstlichen Superintelligenz (Artificial SuperIntelligence, ASI) handelt es sich um eine theoretische (und wir betonen: theoretische) Form der KI, die die menschliche Intelligenz in allen Bereichen, einschließlich Problemlösung, logischem Denken, Kreativität und emotionalem Verständnis, weit übertreffen würde. Sie stellt die höchste Stufe der KI-Entwicklung dar und übertrifft die so genannte allgemeine künstliche Intelligenz (AGI), die darauf abzielt, die kognitiven Fähigkeiten des Menschen nachzubilden, und ist natürlich auch eine (vorerst) rein theoretische Herausforderung.

Der Anstoß zu diesem neuen Labor scheint aus Zuckerbergs Frustration über Metas wahrgenommene Unzulänglichkeiten in der KI-Entwicklung zu stammen, darunter die gemischte Aufnahme des Modells Llama 4 und die Verzögerungen bei seinem ehrgeizigsten Modell, Behemoth. Metas kühnes Ziel ist es, andere Technologieunternehmen in diesem Kampf zu übertrumpfen: Insbesondere Konkurrenten wie Google, OpenAI und Anthropic haben eine neue Generation leistungsstarker „denkender“ Modelle vorgestellt, die Probleme lösen, indem sie sie Schritt für Schritt aufschlüsseln: und wir sprechen hier von AGI. Meta möchte jedoch über AGI hinausgehen und hat die langfristige Vision, die fortschrittlichen Fähigkeiten von ASI in die umfangreiche Produktpalette von Meta zu integrieren, darunter Social-Media-Plattformen, Kommunikationstools, Chatbots und KI-fähige Geräte wie die intelligente Brille von Ray-Ban. Bei all dem hat das Unternehmen auch den enormen Energiebedarf dieser Modelle berücksichtigt und mit Constellation Energy, dem führenden Betreiber von Kernkraftwerken in den USA, eine Vereinbarung über die Abnahme der gesamten vom Kraftwerk Clinton in Illinois erzeugten Energie für 20 Jahre ab 2027 unterzeichnet.

Und jetzt die kalte Dusche. In einem am vergangenen Wochenende veröffentlichten Papier behauptet Apple, dass Large Reasoning Models (LRMs), die Grundlage von AGI und vielleicht sogar ASI (denn LLMs können es sicher nicht sein), bei sehr komplexen Problemen einen „vollständigen Zusammenbruch der Genauigkeit“ erleiden. Dabei handelt es sich um Rätselprobleme wie den berühmten Turm von Hanoi.

Es stellte sich heraus, dass Standardmodelle der künstlichen Intelligenz bei Problemen mit geringer Komplexität besser abschneiden als LRMs, während beide Arten von Modellen bei Problemen mit hoher Komplexität „völlig zusammenbrechen“. LRMs versuchen, komplexe Fragen zu lösen, indem sie detaillierte Denkprozesse erzeugen, die das Problem in kleinere Teilprobleme zerlegen, die nacheinander angegangen werden. Wir halten es nicht für überflüssig, darauf hinzuweisen, dass wir, wenn wir von KI sprechen, Komplexität als „Rechenschwierigkeit“ verstehen müssen, oder wir sprechen, für Erklärungszwecke trivialisierend, von kombinatorischen Problemen.

Die Studie, in der die Fähigkeit der Modelle, Rätsel zu lösen, getestet wurde, fügte hinzu, dass LRMs, wenn sie sich dem Leistungskollaps näherten, begannen, „ihren Denkaufwand zu reduzieren“. Getestet wurden Modelle wie o3 von OpenAI, Gemini Thinking von Google, Claude 3.7 Sonnet-Thinking von Anthropic und DeepSeek-R1. Die Forscher von Apple erklärten, dass sie diese Beweise „besonders beunruhigend“ fanden.

In der Studie wurde auch festgestellt, dass LRMs Rechenleistung (und damit Strom) verschwenden, indem sie in den frühen Phasen ihres „Denkens“ die richtige Lösung für einfachere Probleme finden. Wenn die Probleme jedoch etwas komplexer werden, erforschen die Modelle zunächst die falschen Lösungen und kommen erst später zu den richtigen. Bei komplexeren Problemen brechen die Modelle jedoch zusammen und können keine richtigen Lösungen mehr finden. Es gab auch einen Fall, in dem die Modelle versagten, sobald ein Algorithmus bereitgestellt wurde, der das Problem lösen würde. Wenn sie sich einem kritischen Schwellenwert nähern – der genau dem Punkt entspricht, an dem ihre Genauigkeit zusammenbricht – beginnen die Modelle kontraintuitiv, ihren Denkaufwand trotz der zunehmenden Schwierigkeit des Problems zu verringern.

Diese Ergebnisse sind sicherlich nicht ermutigend, und vor allem ist es schwer zu verstehen, wie es Meta gelingen kann, Modelle der Superintelligenz zu entwickeln, während sie gleichzeitig beträchtliche Ressourcen – die größtenteils durch Werbeeinnahmen finanziert werden sollen – aufwendet, um die besten Köpfe auf diesem Gebiet zu gewinnen. Die Geschichte der künstlichen Intelligenz ist jedoch von Ebbe und Flut geprägt, wie im Fall der neuronalen Netze, die für eine lange Zeit aufgegeben wurden, als man feststellte, dass der Beitrag vieler Schichten von „Neuronen“ im Vergleich zum Mehrwert der letzten Schicht praktisch irrelevant war, und dann 2017 mit Deep Learning in großem Stil zurückkehrten. In der Zwischenzeit haben sich die Forschungsbemühungen im Bereich des maschinellen Lernens auf andere Bereiche und Modelle (z. B. Kernel-Methoden) konzentriert, die nicht weniger nützlich und wichtig sind.

Was sich bisher abzuzeichnen scheint, ist, dass die Entwicklung von AGI/ASI nicht durch LRMs erfolgen muss, sondern wahrscheinlich durch andere Arten von Modellen oder Überarbeitungen der derzeit untersuchten. Was sich aus der Sicht des Investors abzuzeichnen scheint, ist ein Überdenken und sorgfältiges Abwägen des Potenzials von KI als Anlagethema. Das bedeutet keineswegs, dass das Thema aufgegeben oder die entsprechenden Portfoliopositionen untergewichtet werden. Es bedeutet lediglich: eine sorgfältigere Gewichtung und Analyse der „Wert“-Profile dieser Anlagen.

Haftungsausschluss

Dieser Beitrag gibt die persönliche Meinung der Mitarbeiter von Custodia Wealth Management wieder, die ihn verfasst haben. Er ist keine Anlageberatung oder -empfehlung, keine persönliche Beratung und sollte nicht als Aufforderung zum Handel mit Finanzinstrumenten betrachtet werden.