Zum Hauptinhalt springen
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Alle Artikel
  • 🗒️ Registrieren
  • 🔑 Anmelden
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Datenschutzrichtlinie cookie_banner_and Cookie-Richtlinie cookie_banner_more_info

Cookie-Einstellungen

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Die Illusion der "denkenden KI" – Wo stößt KI an ihre Grenzen? Der Kernpunkt, den das Apple-Papier und der CNBC-Bericht treffen

Die Illusion der "denkenden KI" – Wo stößt KI an ihre Grenzen? Der Kernpunkt, den das Apple-Papier und der CNBC-Bericht treffen

2025年06月27日 00:54

1. Einführung: Das wachsende Unbehagen hinter der Begeisterung

Das Schlüsselwort, das den zweiten Akt des generativen KI-Booms ankündigte, war "Reasoning". Als ChatGPT und Google Gemini eine Art von "Chain-of-Thought" einführten, die wie ein "lautes Denken" wirkte, wurde hinter den Kulissen der Produktpräsentationen gejubelt, dass man "nun näher am menschlichen Denken sei". Doch am 26. Juni stellte CNBC eine Frage, die die festliche Stimmung trübte: „Sind Modelle, die Denken zeigen, wirklich klüger geworden?“ Es dauerte nicht lange, bis diese Frage einen Sturm auslöste.


2. Die Struktur des CNBC-Artikels: Der kritische Punkt des Genauigkeitszusammenbruchs

Laut CNBCs digitaler Ausgabe und der Fernsehsendung TechCheck wurde in mehreren unabhängigen Studien das Phänomen reproduziert, dass „je mehr ein Modell schrittweises Schließen durchführt, desto mehr sinkt die Genauigkeit abrupt, sobald eine bestimmte Komplexität überschritten wird“. Symbolisch dafür steht das Apple-Papier The Illusion of Thinking. Das Forschungsteam verglich über 20 führende LLMs in den Bereichen Mathematik, Programmierung und unbekannte Konzepte und präsentierte Grafiken, die zeigen, dass Modelle, die Gedankenspuren erzeugen, jenseits einer “kritischen Komplexität” eine steil abfallende Leistung aufweisen. Die Modelle produzieren lange Schlussfolgerungen, aber die endgültige Antwort ist falsch, was zu dem Fehler führt, „zu denken und daneben zu liegen“.theverge.com


CNBC nannte dieses Verhalten “accuracy collapse”. Es wurde berichtet, dass Investoren zu hinterfragen begannen, ob es sich lohne, teure Schlussfolgerungsmodelle zu integrieren.


3. Was sind Reasoning-Modelle? — Nützliche „lange Selbstgespräche“

Während der Standardmodus von LLMs die „Vorhersage des nächsten Tokens“ ist, zeichnen sich Reasoning-Modelle dadurch aus, dass sie „Gedanken schrittweise anzeigen“. Sie listen Berechnungen auf, rufen Funktionen auf und enumerieren Wissen — da dieser Prozess in einer für Menschen lesbaren Form verbleibt, wird die Debugbarkeit und Verantwortlichkeit als verbessert angesehen. Doch das Apple-Papier entlarvt, dass „das Sichtbare keine Gedanken, sondern nur Spuren eines “Selbstassoziationsspiels” sind“. Auch wenn es logisch erscheint, verkürzt das Modell plötzlich seine Gedanken, sobald die Komplexität einen Schwellenwert überschreitet, und es kam sogar zu Fällen, in denen es eine Kurzschlussausgabe gleichbedeutend mit “I don’t know” produzierte.itpro.com


4. Der Sturm der Gegenargumente: Der Gegenschlag von Anthropic und Meta

Gegen die provokativen Schlussfolgerungen von Apple argumentierte Anthropic sofort, dass „die Benchmarks falsch sind“ und führte eine erneute Überprüfung gemeinsam mit Open Philanthropy durch. Das Ergebnis war die Behauptung, dass „nur Formatvorgaben und Timeouts die Ursache für Punktverluste waren“ und betonte, dass **„Denkmodelle intakt sind“**. Auch Meta, das über den gescheiterten Kauf von Safe Superintelligence berichtete, erklärte die Verzögerung seines eigenen Modells Behemoth mit „der Notwendigkeit der Genauigkeitsanpassung“ und kommentierte in einem zusätzlichen Interview mit CNBC, dass „langfristig Denkmodelle unverzichtbar sind“.rcrwireless.com


5. Reaktionen in den sozialen Medien: Das Fiasko #ReasoningGate

Auf X (ehemals Twitter) wurde der Hashtag #ReasoningGate innerhalb von 24 Stunden nach Veröffentlichung des Artikels zum Trend. Kommentare wie „Das Modell ist nicht ‚Thinking Out Loud‘, sondern ‚Guessing Out Loud‘“ und „Wurden wir von den Selbstgesprächen der KI getäuscht?“ waren weit verbreitet. Besonders der Venture Capitalist @AIThesis postete „Hohe Transparenz bedeutet nicht unbedingt Richtigkeit. Investitionen sollten den Inhalt bewerten“ und erhielt 23.000 Likes. Auch der offizielle Medienaccount @CNBC veröffentlichte ein kurzes Video mit dem Titel „Why ‘thinking’ models may not actually be smarter“, das über 145.000 Mal angesehen wurde.

 



Auf der anderen Seite tauchte im Reddit-Forum /r/ArtificialIntelligence der Thread „Are current AI models really reasoning, or just predicting the next token?“ wieder auf, was zu einer hitzigen Debatte führte: „Im Grunde ist es nur eine verlängerte Autovervollständigung“ vs. „Assoziation ist auch eine Form des Denkens“. Der Thread verzeichnete innerhalb von 48 Stunden über 1.200 Kommentare.reddit.com


6. Technische Diskussion: Overthinking und kritische Komplexität

In der Analyse von IEEE Spectrum wird berichtet, dass „Reasoning-Modelle umso weniger erfolgreich sind, je mehr sie “überdenken”“. Die Erhöhung der Denkschritte führt nicht zwangsläufig zu einer Verbesserung der Genauigkeit, sondern zieht vielmehr eine „Overthinking-Penalty“ nach sich. Zudem weisen Studien der NUS und Johns Hopkins darauf hin, dass „aufgrund des Fehlens eines menschlichen Arbeitsgedächtnisses die Modelle Zwischenschritte nicht behalten können und in Selbstwidersprüche geraten“.spectrum.ieee.orgarxiv.org


7. Auswirkungen auf die Branche: Neuordnung von Finanzierung und Fahrplänen

Auf der Investorenseite wurde berechnet, dass die zusätzlichen Kosten für die Berechnung von Schlussfolgerungsketten „30–50 % mehr pro Token“ betragen, was die Preisvorteile ins Wanken bringt. Einige VCs haben begonnen, ihre Portfolios umzustellen und argumentieren, dass „es risikoärmer ist, bestehende LLMs auf API-Ebene modular zu verbinden, als die Anzahl der Modelle wahllos zu erhöhen“. Modelle wie DeepSeek, die kostengünstig und hocheffizient sind, gewinnen an Ansehen, während die riesigen GPU-Investitionen von Google und Nvidia erneut in Frage gestellt werden.reuters.com


8. Alternative Ansätze: Hybride und neuronale symbolische Systeme

Als Schlüssel zur Problemlösung sind neuronale symbolische KI und modulare Agenten aufgetaucht. Diese Methode kombiniert die Vorteile von „symbolischen Regeln“ und „tiefem Lernen“ und ermöglicht es, den „denkenden“ Teil klar zu isolieren. Der von Gary Marcus und anderen vorgeschlagene Ansatz soll „kausales Schließen auf Schaltkreisebene garantieren“, und nach ReasoningGate ist der Zufluss von Startkapital stark gestiegen.en.wikipedia.org


9. Was ist „Denken“? — Eine philosophische Perspektive

John Mark Bishop erklärte bereits 2020 in einem Aufsatz mit dem Titel „AI is stupid and causal reasoning won’t fix it“, dass „Rechnen kein Verstehen ist“. Der aktuelle Aufruhr aktualisiert diese Warnung auf die Version von 2025. Die Kluft zwischen der „Bedeutungsverständnis“, die Menschen leisten, und der „statistischen Assoziation“, die LLMs durchführen, ist nach wie vor nicht geschlossen.arxiv.org


10. Zukunftsausblick: Überwindung des Gegensatzes zwischen Transparenz und Validität

Kurzfristig sind (1) die Neugestaltung von Benchmarks, (2) automatische Verifizierungstools für Gedankenspuren und (3) Hardware-Effizienzsteigerungen dringend erforderlich. Langfristig wird jedoch die grundlegende Designphilosophie überdacht werden müssen, einschließlich „der Integration eines Arbeitsgedächtnisses in die KI“, „der nativen Implementierung von Kausalmodellierung“ und „der Fehlerkorrektur durch Mehr-Agenten-Kooperation“.


Referenzartikel

Das Problem der AI-Schlussfolgerung — Warum „denkenden“ Modelle möglicherweise nicht wirklich klüger sind
Quelle: https://www.cnbc.com/2025/06/26/ai-reasoning-models-problem.html

← Zurück zur Artikelliste

Kontakt |  Nutzungsbedingungen |  Datenschutzrichtlinie |  Cookie-Richtlinie |  Cookie-Einstellungen

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Alle Rechte vorbehalten.