Aller au contenu principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Tous les articles
  • 🗒️ S'inscrire
  • 🔑 Connexion
    • 日本語
    • English
    • 中文
    • Español
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Politique de confidentialité cookie_banner_and Politique des cookies cookie_banner_more_info

Paramètres des cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Le mythe de l'« IA pensante » ─ Où l'IA rencontre-t-elle ses limites ? L'essai d'Apple et le rapport de CNBC touchent au cœur du problème

Le mythe de l'« IA pensante » ─ Où l'IA rencontre-t-elle ses limites ? L'essai d'Apple et le rapport de CNBC touchent au cœur du problème

2025年06月27日 00:53

1. Introduction : Un malaise croissant derrière l'engouement

Le mot-clé annonçant le deuxième acte de la vague de l'IA générative était "Reasoning". Avec l'introduction du par ChatGPT et Google Gemini, qui permet aux modèles de "penser à voix haute", les coulisses des lancements de produits ont été marquées par des acclamations affirmant que cette fois, nous nous rapprochions de la pensée humaine. Cependant, le 26 juin, une question soulevée par CNBC a jeté un froid sur cette ambiance festive. — "Les modèles qui montrent leur pensée sont-ils vraiment devenus plus intelligents ?" Il n'a fallu que peu de temps pour que cette question déclenche une tempête.


2. Structure de l'article de CNBC : Le point critique de l'effondrement de la précision

Selon la version numérique et l'émission télévisée TechCheck de CNBC, plusieurs études indépendantes ont reproduit le phénomène selon lequel "plus un modèle effectue un raisonnement par étapes, plus sa précision chute brusquement une fois qu'une certaine complexité est dépassée". Cela est illustré par l'article d'Apple intitulé The Illusion of Thinking. L'équipe de recherche a comparé plus de 20 LLM de pointe dans trois domaines : mathématiques, programmation et concepts inconnus, et a montré que les modèles qui génèrent des traces de pensée voient leur performance chuter verticalement au-delà d'une “complexité critique”. Ces modèles produisent de longs raisonnements, mais finissent par donner des réponses finales incorrectes, commettant ainsi l'erreur de "penser à côté".theverge.com


CNBC a nommé ce comportement “effondrement de la précision”. Ils ont rapporté que les investisseurs ont commencé à se demander si l'intégration de modèles de raisonnement coûteux en valait la peine.


3. Qu'est-ce qu'un modèle de Reasoning ? — Un “long monologue” pratique

Alors que le mode standard des LLM est la “prédiction du prochain token”, les modèles de raisonnement se vantent de “montrer la pensée par étapes”. En alignant des formules, en appelant des fonctions, et en énumérant des connaissances, ce processus reste lisible pour les humains, améliorant ainsi la débugabilité et la responsabilité. Cependant, l'article d'Apple affirme que “ce qui est visible n'est pas la pensée mais seulement les traces d'un “jeu d'association personnel””. Même si cela semble logique, lorsque la complexité dépasse un certain seuil, le modèle réduit soudainement sa pensée, produisant parfois une sortie abrégée équivalente à “Je ne sais pas”.itpro.com


4. Tempête de contre-arguments : La riposte d'Anthropic et Meta

Face à la conclusion provocante d'Apple, Anthropic a immédiatement réagi en affirmant que “le benchmark est erroné”, et a mené une nouvelle vérification avec Open Philanthropy. Ils ont affirmé que les pertes de points étaient dues uniquement à des spécifications de format et des délais, soulignant que **“les modèles de pensée sont toujours valables”**. Alors que Meta, en pleine couverture médiatique de l'échec de l'acquisition de Safe Superintelligence, a expliqué le retard de son modèle développé en interne Behemoth comme étant dû à “l'ajustement de la précision”, tout en affirmant dans une interview supplémentaire de CNBC que “à long terme, les modèles de pensée sont indispensables”.rcrwireless.com


5. Réactions sur les réseaux sociaux : Le feuilleton #ReasoningGate

Sur X (anciennement Twitter), le hashtag <#ReasoningGate> est devenu tendance en 24 heures après la publication de l'article. Les sarcasmes ont fusé, tels que "Les modèles ne font pas du “Thinking Out Loud” mais du “Guessing Out Loud”" ou "Avons-nous été dupés par le monologue de l'IA ?". En particulier, le capital-risqueur @AIThesis a posté “La transparence ne garantit pas la justesse. Investissez en évaluant le contenu”, récoltant 23 000 likes. Le compte officiel de CNBC, @CNBC, a également publié une courte vidéo avec le titre “Why ‘thinking’ models may not actually be smarter”, qui a dépassé 145 000 vues.

 



Par ailleurs, sur Reddit /r/ArtificialIntelligence, le fil de discussion <Are current AI models really reasoning, or just predicting the next token?> a refait surface, déclenchant un débat intense entre ceux qui affirment que “ce n'est qu'une extension de l'autocomplétion” et ceux qui soutiennent que “l'association est aussi une forme de pensée”. Le fil a enregistré plus de 1 200 commentaires en 48 heures.reddit.com


6. Points techniques : Overthinking et complexité critique

L'analyse de l'IEEE Spectrum rapporte que “plus les modèles de raisonnement “réfléchissent trop”, plus leur taux de succès diminue”. L'augmentation des étapes de pensée n'améliore pas nécessairement la précision et peut même entraîner une “pénalité pour sur-réflexion”. De plus, des recherches de la NUS et de Johns Hopkins soulignent que “les modèles manquent d'un mécanisme de mémoire de travail humaine, ce qui les empêche de conserver les chemins intermédiaires, conduisant à des contradictions internes”.spectrum.ieee.orgarxiv.org


7. Impact sur l'industrie : Réorganisation des financements et des feuilles de route

Du côté des investisseurs, le coût supplémentaire pour calculer les chaînes de raisonnement est estimé à “+30 à 50 % par token”, remettant en cause l'avantage de prix. Certains VC ont commencé à réorganiser leurs portefeuilles, affirmant qu'il est “plus résilient de connecter les LLM existants au niveau API plutôt que d'augmenter aveuglément le nombre de modèles”. Des modèles comme DeepSeek, qui sont économiques et efficaces, gagnent en reconnaissance, tandis que les investissements massifs de Google et Nvidia dans les GPU sont à nouveau remis en question.reuters.com


8. Voies alternatives : Modèles hybrides et neuraux-symboliques

Les solutions émergentes incluent l'IA neurale-symbolique et les agents modulaires. Ces approches combinent les avantages des "règles symboliques" et de "l'apprentissage profond", permettant d'isoler clairement la partie “réflexion”. Proposée par Gary Marcus et d'autres, cette approche est censée “garantir le raisonnement causal au niveau du circuit”, et a vu un afflux rapide de financements pour les startups après ReasoningGate.en.wikipedia.org


9. Qu'est-ce que la "pensée" ? — Une perspective philosophique

Dès 2020, John Mark Bishop a publié un article intitulé “AI is stupid and causal reasoning won’t fix it”, affirmant que “le calcul n'est pas la compréhension”. Le tumulte actuel semble actualiser cet avertissement pour 2025. Le fossé entre la “compréhension du sens” humaine et l'“association statistique” des LLM reste béant.arxiv.org


10. Perspectives futures : Au-delà de la dichotomie transparence vs. validité

À court terme, il est urgent de (1) redéfinir les benchmarks, (2) développer des outils de vérification automatique des traces de pensée, et (3) optimiser l'efficacité matérielle. À long terme, la vision inclut la “mémoire de travail intégrée à l'IA”, la “mise en œuvre native de la modélisation causale”, et la “correction d'erreurs par coopération multi-agents”, ce qui nécessitera une réévaluation de la philosophie de conception elle-même.


Articles de référence

Le problème du raisonnement de l'IA — Pourquoi les modèles de “pensée” ne sont peut-être pas réellement plus intelligents
Source : https://www.cnbc.com/2025/06/26/ai-reasoning-models-problem.html

← Retour à la liste d'articles

Contact |  Conditions d'utilisation |  Politique de confidentialité |  Politique des cookies |  Paramètres des cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Tous droits réservés.