Gib mir 5

GPT 5

Und tatsächlich gab Sam Altman, CEO von OpenAI, letzte Woche ein High Five: GPT 5. Eineinhalb Stunden Live-Streaming, um das neue GPT-5-Modell vorzustellen, das sich durch fünf wesentliche Änderungen auszeichnet oder, um es mit Altmans Worten zu sagen, „ein wichtiges Update” des GPT-Modells darstellt.

Wir sind weit entfernt von der unvergesslichen Präsentation des iPhones im Jahr 2007. In einem intimeren Rahmen (einem Wohnzimmer) haben nach einer kurzen Einführung durch Sam Altman verschiedene Mitarbeiter des CEO die fünf grundlegenden Änderungen des Modells näher erläutert, die für uns von Interesse sind.

1. Vibe-Coding. Für uns scheint dies der wichtigste Aspekt zu sein, vielleicht sogar der einzige, der erwähnenswert ist. GPT wird gebeten, eine Software zu erstellen, wobei die Eigenschaften angegeben werden, und es scheint, dass das neue Modell in der Lage ist, ein praktisch fertiges Produkt zu liefern. Es scheint sogar, dass die KI durch die Beschreibung eines Gefühls oder einer Stimmung in der Lage ist, eine dynamische Website (nicht nur HTML und CSS, sondern auch den entsprechenden JavaScript-Code) zu erstellen, die mit diesen Emotionen übereinstimmt.

2. Größe. GPT 5 ist in drei Versionen erhältlich: Standard, Mini und Nano (nur über API verfügbar). Kostenlose Nutzer von ChatGPT haben Zugriff auf die Standard- und die Mini-Version, während Abonnenten von ChatGPT Plus von höheren Nutzungslimits in allen Bereichen profitieren. Ein US-Pro-Nutzer, der 200 Dollar pro Monat bezahlt, hat unbegrenzten Zugriff auf GPT-5 sowie auf das leistungsstärkere Modell gpt-5-pro und gpt-5-thinking. Beide benötigen mehr Zeit, um Antworten zu liefern, geben aber ausführlichere und durchdachtere Antworten.

3. Personalisierung. Der Ton macht die Musik. Mit GPT 5 kann der Nutzer die Art der Interaktion wählen, die er wünscht. Zusätzlich zu der von ChatGPT angebotenen Standardoption kann der Nutzer „Cynic” für sarkastische Antworten, „Listener” für die Interaktion mit einem verständnisvollen Gesprächspartner, der auch Gefühlsausbrüche zulässt, aber auch „Nerd”, der keiner Erklärungen bedarf, und „Robot” für rein mechanische Antworten wählen, die vermutlich für wissenschaftliche Konsultationen verwendet werden.

4. Stimme. OpenAI bringt eine deutlich verbesserte Version der Sprachinteraktion auf den Markt, die nicht nur mit personalisierten GPTs funktioniert, sondern auch den Ton und Stil der Konversation an die Anweisungen des Benutzers und die allgemeine Atmosphäre anpasst. Der Nutzer kann die KI um eine lebhaftere, langsamere, herzlichere oder jede andere gewünschte Sprachinteraktion bitten. Für Nutzer von ChatGPT Plus sind die Sprachantworten bereits jetzt nahezu unbegrenzt. Auch kostenlose Nutzer haben weiterhin Zugang, mit einigen Stunden pro Tag für freihändiges Chatten. Um die Dinge zu vereinfachen, wird der alte Standard-Sprachmodus innerhalb eines Monats vollständig abgeschafft. Danach können alle Nutzer die gleiche aktualisierte Erfahrung genießen.

5. Google. Wahrscheinlich schon ab dieser Woche können ChatGPT Pro-Nutzer Gmail, Google Kalender und Google Kontakte direkt mit ChatGPT verbinden. Das bedeutet, dass Sie nicht mehr zwischen verschiedenen Registerkarten hin- und herwechseln müssen, um zu überprüfen, ob Sie nächsten Dienstag Zeit haben, oder in Ihren Unterhaltungen nach der E-Mail suchen müssen, auf die Sie sicher vergessen haben zu antworten. Sobald die Verbindung hergestellt ist, ruft ChatGPT die erforderlichen Informationen ab, um Ihnen bei der Beantwortung Ihrer Fragen zu helfen. OpenAI hat den Nutzern versichert, dass nur das Nötigste abgerufen wird und nur dann, wenn es sinnvoll ist. Sie müssen nicht sagen: „Überprüfe meinen Kalender” oder „Rufe diesen Kontakt ab”. Die KI wird dies auf Anfrage tun: Angenommen, Sie müssen einen Termin vereinbaren, dann wählt die KI eine Uhrzeit aus und schreibt die E-Mail in Ihrem Namen. Andere Abonnementstufen werden in naher Zukunft Zugriff auf die Verbindungen erhalten, wodurch diese Funktion über die Pro-Version hinaus erweitert wird.

Die größte Einschränkung dieses „wichtigen Updates“ scheint jedoch darin zu bestehen, dass die AGI-Grenze nicht überschritten wird. Wie bereits in unserem Artikel vom 13. Juni 2025 erwähnt, zielt die Künstliche Allgemeine Intelligenz darauf ab, die kognitiven Fähigkeiten des Menschen nachzubilden, bleibt jedoch eine rein theoretische Herausforderung, die von GPT 5 sicherlich nicht gemeistert wurde. Die wichtigste technische Neuerung hinter GPT-5 scheint die Einführung eines „Routers“ zu sein. Dieser entscheidet, an welches GPT-Modell eine Frage weitergeleitet wird, indem er im Wesentlichen abwägt, wie viel Aufwand in die Berechnung der Antworten investiert werden soll. Zu den Optionen für die Weiterleitung gehören frühere, aktuelle (einschließlich gpt-5-thinking – wobei noch unklar ist, was das eigentlich ist) und zukünftige Modelle, die in GPT integriert sind. Man könnte also vermuten, dass dieses Modell in Wirklichkeit nur eine weitere Möglichkeit ist, die bestehenden Modelle mit wiederholten Abfragen zu kontrollieren und sie zu mehr Arbeit anzutreiben, bis sie bessere Ergebnisse liefern, und dass es an sich einen mehr als begründeten Verdacht auf die Grenze darstellt, die LLMs nicht überwinden können (nämlich genau die AGI).

Um diesen Punkt besser zu verstehen – und angesichts der Tatsache, dass wir sie auch in unserer vorherigen Vertiefung vom 13. Juni 2025 als selbstverständlich angesehen haben – halten wir es für angebracht, kurz zu erläutern, was Large Language Models (LLM) sind und wie sie funktionieren.

Im Jahr 2017 arbeiteten einige Forscher von Google an neuen Modellen des maschinellen Lernens (ML), die in der Lage sind, äußerst komplexe Muster in langen Wortfolgen zu erfassen, die der Struktur der menschlichen Sprache zugrunde liegen. Durch das Training mit großen Textmengen (daher der Name „große Sprache“) konnten die Modelle auf Anfragen eines Benutzers reagieren, indem sie eine Wortfolge mit ihrer wahrscheinlichsten Fortsetzung gemäß den Mustern in der Textdatenbank abglichen. Diese Muster sind nichts anderes als riesige Tabellen mit Reizen und Reaktionen: Eine Anfrage des Benutzers ist ein Reiz, der die Suche in der Tabelle nach der besten Antwort auslöst. Während traditionelle ML-Modelle lernen, indem sie die Modellparameter kalibrieren, um die beste Antwort unter den in der Tabelle vorgesehenen Antworten zu finden, können bei LLM die Anfragen entsprechend geändert werden, um sie an die am besten geeigneten Modelle weiterzuleiten oder sie mehrmals abzufragen, um die am besten geeignete Antwort zu erhalten. Genau das macht der „Router” von GPT 5: Er zerlegt komplexere Anfragen in einfachere Anfragen und sortiert sie. Dies könnte die von vielen vertretene Behauptung rechtfertigen, dass LLM keine weiteren Entwicklungsmöglichkeiten haben. Um bessere Antworten geben zu können, müssen verschiedene Modelle (die auf bestimmte Themen spezialisiert sind) zusammenarbeiten und ihre Arbeit auf der Grundlage von entsprechend aufgeschlüsselten und an das beste Modell gerichteten Fragen „koordinieren“, wobei die endgültige Antwort eine Zusammenstellung präziser Antworten ist. Wenn dies der Fall wäre, müssten wir den Wissenschaftlern und Experten auf diesem Gebiet Recht geben, die seit langem behaupten, dass es nicht möglich sein wird, die aktuellen Grenzen der KI zu überwinden, ohne über die LLM-Architekturen hinauszugehen.

Zurück zu GPT 5 und seiner weiteren Untersuchung stellen wir fest, dass auch die Qualität des Schreibens nur einen linearen Fortschritt erzielt zu haben scheint; nicht schlecht, aber sicherlich nicht kompatibel mit den typischerweise exponentiellen Verbesserungen, an die uns die Technologie gewöhnt hat.

Interessant erscheint hingegen der Einsatz der KI in mathematischer (aber auch wissenschaftlicher) Hinsicht und in der Programmierung im Sinne der Erstellung von Softwarelösungen.

Anthropic, ein Konkurrent von OpenAI, hat den Markt bis heute dominiert, aber GPT-5 hat das neueste Modell von Anthropic auf SWE-bench Verified, einem industriellen Test für Programmierfähigkeiten, leicht übertroffen. Dies hat es OpenAI ermöglicht, wichtige Nutzer zu gewinnen, darunter das Team von Any sphere, dessen beliebter Codierungsassistent Cursor einer der größten Kunden von Anthropic ist: Die Migration seiner Nutzer zu GPT 5 würde den wiederkehrenden Jahresumsatz von OpenAI, das bereits einen wiederkehrenden Jahresumsatz (ARR) von 12 Milliarden US-Dollar erzielt und bis Ende 2025 auf 20 Milliarden US-Dollar steigen soll, erheblich steigern.

OpenAI wird derzeit mit rund 300 Milliarden Dollar bewertet und hat 700 Millionen aktive Nutzer pro Woche, von denen viele monatliche Abonnements zwischen 20 und 200 Dollar bezahlen, die die Haupteinnahmequelle des Produkts darstellen. 

Es wird erwartet, dass GPT 5 – gerade aufgrund seiner Positionierung gegenüber der Konkurrenz – zu einer deutlichen Steigerung des Unternehmenswertes des Unternehmens aus San Francisco beitragen wird: Es wird eine Neubewertung von 500 Milliarden Dollar diskutiert, was es zum wertvollsten privaten Technologieunternehmen der Welt machen würde. Abgesehen von der deutlichen Verbesserung im Bereich der Programmierung gibt es jedoch viele Schattenseiten, die zur Vorsicht mahnen, darunter die geringen Verbesserungen in Bezug auf Denkvermögen und Wissen im Vergleich zu Konkurrenten wie Grok 4 Heavy von xAI (das im „Humanity’s Last Exam” 42 % erreicht, gegenüber 44 % des Konkurrenten), die technologische Grenze, die LLM zu stellen scheinen und die das Rückgrat von GPT bilden, das als hoch eingeschätzte Risiko einer gefährlichen Nutzung (wie z. B. die Herstellung biologischer Waffen oder neuer Viren durch Anfänger) und die immer drohende chinesische Konkurrenz (DeepSeek).

 

Haftungsausschluss

Dieser Beitrag gibt die persönliche Meinung der Mitarbeiter von Custodia Wealth Management wieder, die ihn verfasst haben. Es handelt sich nicht um Anlageempfehlungen oder -ratschläge, keine persönliche Beratung und sollte nicht als Aufforderung zum Handel mit Finanzinstrumenten angesehen werden.