Saltar al contenido principal
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Todos los artículos
  • 🗒️ Registrarse
  • 🔑 Iniciar sesión
    • 日本語
    • English
    • 中文
    • Français
    • 한국어
    • Deutsch
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Política de privacidad cookie_banner_and Política de cookies cookie_banner_more_info

Configuración de cookies

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

La ilusión de la "IA que piensa" ─ ¿Dónde se atasca la IA? El núcleo tocado por el documento de Apple y el informe de CNBC

La ilusión de la "IA que piensa" ─ ¿Dónde se atasca la IA? El núcleo tocado por el documento de Apple y el informe de CNBC

2025年06月27日 00:52

1. Introducción: La creciente sensación de incomodidad detrás del fervor

La palabra clave que anunció el segundo acto del boom de la IA generativa fue "razonamiento". Cuando ChatGPT y Google Gemini introdujeron el enfoque de "pensar en voz alta" conocido como , en los bastidores del lanzamiento del producto se escucharon ovaciones de que "esta vez nos hemos acercado al pensamiento humano". Sin embargo, el 26 de junio, una pregunta planteada por CNBC echó un jarro de agua fría sobre el ambiente festivo.――"¿Los modelos que muestran pensamiento se han vuelto realmente más inteligentes?" No pasó mucho tiempo antes de que esta pregunta desatara una tormenta.


2. Estructura del artículo de CNBC: El punto crítico del colapso de precisión

Según la versión digital y el programa de televisión TechCheck de CNBC, varios estudios independientes han reproducido el fenómeno de que "cuanto más realizan los modelos un razonamiento escalonado, más se desploma la tasa de aciertos al superar un cierto nivel de complejidad". El símbolo de esto es el artículo de Apple The Illusion of Thinking. El equipo de investigación comparó más de 20 LLM de vanguardia en tres áreas: matemáticas, programación y conceptos desconocidos, y presentó un gráfico donde el rendimiento cae verticalmente al cruzar la “complejidad crítica” en modelos que generan trazas de pensamiento. Los modelos cometen el error de "pensar y fallar", produciendo largos razonamientos pero respuestas finales incorrectas.theverge.com


CNBC denominó este comportamiento como “colapso de precisión”. Reportaron que los inversores comenzaron a cuestionar si vale la pena incorporar modelos de razonamiento costosos.


3. ¿Qué es un modelo de razonamiento?――Un “monólogo largo” conveniente

Mientras que el modo estándar de los LLM es la "predicción del siguiente token", los modelos de razonamiento se destacan por "mostrar el pensamiento paso a paso". Al enumerar fórmulas, llamar funciones y listar conocimientos, el proceso queda en una forma legible para los humanos, mejorando así la depurabilidad y la responsabilidad explicativa. Sin embargo, el artículo de Apple afirma que "lo que se ve no es pensamiento, sino solo rastros de un “juego de autoasociación”". Aunque parece lógico, cuando la complejidad supera un umbral, el modelo repentinamente reduce su pensamiento, llegando incluso a producir salidas simplistas equivalentes a “No lo sé”.itpro.com


4. Tormenta de refutaciones: La contraofensiva de Anthropic y Meta

Ante la provocativa conclusión de Apple, Anthropic respondió de inmediato argumentando que "el benchmark es incorrecto", y junto con Open Philanthropy, realizaron una nueva verificación. Los resultados afirmaron que "solo se perdieron puntos debido a la especificación de formato y al tiempo de espera", enfatizando que **"los modelos de pensamiento están intactos"**. Meta, mientras se informaba sobre el fracaso en la adquisición de Safe Superintelligence, explicó el retraso de su modelo desarrollado internamente Behemoth como "para ajustar la precisión", y comentó en una entrevista adicional con CNBC que "a largo plazo, los modelos de pensamiento son indispensables".rcrwireless.com


5. Reacción en redes sociales: El drama incendiario de #ReasoningGate

En X (anteriormente Twitter), #ReasoningGate se convirtió en tendencia 24 horas después de la publicación del artículo. Abundaron los comentarios sarcásticos como "El modelo no es “Thinking Out Loud” sino “Guessing Out Loud”" y "¿Nos han engañado los monólogos de la IA?". Especialmente el capitalista de riesgo @AIThesis publicó "La transparencia no garantiza la corrección. Evalúa el contenido antes de invertir", obteniendo 23,000 me gusta. La cuenta oficial de medios @CNBC también publicó un video corto titulado "Why ‘thinking’ models may not actually be smarter", que superó las 145,000 vistas.

 



Por otro lado, en Reddit /r/ArtificialIntelligence, resurgió el hilo titulado Are current AI models really reasoning, or just predicting the next token?, convirtiéndose en un gran debate entre "En resumen, solo es una autocompletar extendida" vs. "La asociación también es una forma válida de pensamiento". El hilo registró más de 1,200 comentarios en 48 horas.reddit.com


6. Puntos técnicos: Pensamiento excesivo y complejidad crítica

El análisis de IEEE Spectrum informa que "cuanto más “piensan demasiado” los modelos de razonamiento, más disminuye su tasa de éxito". Aumentar los pasos de pensamiento no siempre mejora la precisión, sino que provoca una "penalización por pensamiento excesivo". Además, investigaciones de NUS y Johns Hopkins señalan que "debido a la falta de un mecanismo similar a la memoria de trabajo humana, no pueden retener rutas intermedias y llegan a contradicciones".spectrum.ieee.orgarxiv.org


7. Impacto en la industria: Reorganización de fondos y hojas de ruta

Del lado de los inversores, se compartió un cálculo de que el costo adicional de calcular cadenas de razonamiento equivale a "precio por token +30~50%", lo que sacude la ventaja de precios. Algunos VC han comenzado a reestructurar sus carteras, argumentando que "es más resistente al riesgo conectar modularmente los LLM existentes a nivel de API que aumentar ciegamente el número de modelos". Modelos económicos y eficientes como DeepSeek están ganando reconocimiento, y la enorme inversión en GPU de Google y Nvidia vuelve a ser cuestionada.reuters.com


8. Rutas alternativas: Modelos híbridos y neuro-simbólicos

La clave para resolver el problema ha surgido en la forma de IA neuro-simbólica y agentes modulares. Este enfoque combina las ventajas de las "reglas simbólicas" y el "aprendizaje profundo", permitiendo extraer claramente la parte de “pensamiento”. Este enfoque, propuesto por Gary Marcus y otros, se dice que "puede garantizar el razonamiento causal a nivel de circuito", y ha visto un aumento repentino en la inversión de startups después de ReasoningGate.en.wikipedia.org


9. ¿Qué es "pensar"?――Una perspectiva filosófica

John Mark Bishop ya en 2020, en su artículo titulado "AI is stupid and causal reasoning won’t fix it", afirmó que "el cálculo no es comprensión". El actual alboroto parece ser una actualización de esa advertencia para 2025. La brecha entre la "comprensión del significado" que realizan los humanos y la "asociación estadística" que realizan los LLM sigue sin cerrarse.arxiv.org


10. Perspectivas futuras: Más allá de la dicotomía entre transparencia y validez

A corto plazo, (1) rediseño de benchmarks, (2) herramientas de verificación automática de trazas de pensamiento, (3) eficiencia del hardware son urgentes. Por otro lado, como visión a largo plazo, se reconsiderará la filosofía de diseño en aspectos como "incorporación de memoria de trabajo en la IA", "implementación nativa de modelado causal", "corrección de errores en colaboración multi-agente".


Artículos de referencia

El problema del razonamiento en IA――Por qué los modelos "pensantes" pueden no ser realmente más inteligentes
Fuente: https://www.cnbc.com/2025/06/26/ai-reasoning-models-problem.html

← Volver a la lista de artículos

Contacto |  Términos de servicio |  Política de privacidad |  Política de cookies |  Configuración de cookies

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Todos los derechos reservados.