"¿Es la IA 'al nivel humano'? La declaración del líder de NVIDIA revela el núcleo del debate sobre la AGI"

"¿Es la IA 'al nivel humano'? La declaración del líder de NVIDIA revela el núcleo del debate sobre la AGI"

«AGI ya se ha logrado»: ¿Qué quiso decir el CEO de NVIDIA? La razón por la que las redes sociales se dividieron en dos

El CEO de NVIDIA, Jensen Huang, declaró que «creo que ya hemos logrado AGI», lo que generó un gran revuelo en la industria de la IA. Sin embargo, tomar esta declaración como que «la IA finalmente tiene una inteligencia equivalente a la humana» es bastante precipitado. En realidad, hizo esta afirmación en el podcast de Lex Fridman, basándose en un supuesto bastante específico.

En la conversación en cuestión, Fridman definió AGI de manera bastante audaz como una IA capaz de «realizar prácticamente trabajos humanos, fundar, desarrollar y operar una empresa tecnológica de mil millones de dólares». Ante esta pregunta, Huang respondió: «Creo que ahora. Creo que hemos logrado AGI». Sin embargo, inmediatamente después, también dijo que, aunque es posible que la IA cree servicios pequeños que se vuelvan virales temporalmente y se moneticen, «la posibilidad de que 100,000 agentes creen NVIDIA en sí misma es cero». Es decir, no reconoció en la IA actual la capacidad de construir y mantener organizaciones complejas a largo plazo.

Esta combinación de «declaración fuerte y reserva inmediata» es precisamente el punto de partida de la controversia. En 2024, el propio Huang había dicho que, si se considera que AGI es «la capacidad de pasar una amplia gama de pruebas humanas», podría alcanzarse en cinco años. Aunque parece que en aproximadamente dos años su declaración cambió a «ya hemos llegado», en realidad, es más natural ver que el enfoque de AGI se ha desplazado de «inteligencia universal equivalente a la humana» a «agencialidad que puede generar valor económico», en lugar de un salto tecnológico repentino.

Entonces, ¿por qué esta perspectiva genera una fuerte oposición? La razón principal es que no existe una definición establecida de AGI. The Verge también organiza que AGI es un concepto ambiguo que ha provocado intensos debates entre empresarios tecnológicos, técnicos y el público en general en los últimos años. Además, el International AI Safety Report de 2026 señala que, aunque la IA general actual ha avanzado significativamente en áreas específicas como matemáticas, ciencias y codificación, su rendimiento sigue siendo «irregular», fallando en tareas aparentemente simples y mostrando alucinaciones y salidas inestables. Es decir, aunque hay más situaciones donde parece superar a los humanos en puntos de referencia y condiciones limitadas, todavía es demasiado tosco para considerarse una inteligencia robusta y completa.

La evaluación de los expertos brasileños mencionada en el artículo enlazado también coincide con este punto. Según los informes, Álvaro Machado Dias de Unifesp y Esther Luna Colombini de Unicamp señalan que la IA actual sigue siendo un sistema altamente especializado y difícilmente puede llamarse inteligencia general como la humana. Aunque las máquinas pueden superar a los humanos en algunas tareas, eso no significa inmediatamente «inteligencia equivalente a la humana» en su totalidad.

 

La reacción dividida en las redes sociales también se debe a esta «discrepancia de definiciones». En X, se extendieron reacciones entusiastas que interpretaron esta declaración como que «finalmente se ha superado el umbral», mientras que también fueron notables las opiniones frías que decían «¿no es solo que bajaron el estándar?». En el resumen de tendencias de X, se organizó que las reacciones en línea mezclaban tanto euforia como escepticismo.

El lado optimista percibe el hecho de que una IA «capaz de fundar una empresa de mil millones de dólares» se ha vuelto realista como un cambio histórico. De hecho, en X y LinkedIn se observaron interpretaciones como «AGI ya no es un tema del futuro lejano» y «el umbral ya está detrás». Para ellos, lo importante no es si la IA es filosóficamente igual a los humanos, sino si está comenzando a producir resultados en el campo económico y de desarrollo de productos en lugar de los humanos.

Por otro lado, el tono de los escépticos fue bastante mordaz. En X se difundió el sarcasmo de que es «una declaración de alguien que vende GPU», y en Reddit se popularizaron comentarios como «Artificial greed inflation (no inteligencia artificial, sino ‘inflación de codicia artificial’)» y reacciones que decían «si cambias la definición a tu antojo, cualquier cosa puede ser AGI». Además, mientras algunos expresaban preocupación diciendo «si realmente es AGI, ¿no desaparecerán pronto los trabajos de cuello blanco?», también fueron notables las refutaciones basadas en el sentido práctico que decían «los modelos actuales todavía son débiles en la resolución de problemas abiertos que un desarrollador junior podría manejar intuitivamente».

En Hacker News, el debate fue aún más sobrio. Aunque el titular parece radical, en realidad, se señaló que Huang solo respondió bajo un supuesto estrecho y que el recorte del lado del artículo también es grande. Al mismo tiempo, se mencionaron las limitaciones prácticas actuales, como que los modelos actuales pierden contexto al manejar bases de código grandes o repiten trabajos ya realizados. Lo que se revela aquí es que la controversia en las redes sociales se ha trasladado de «¿es la IA inteligente?» a «¿es lo suficientemente estable como para confiarle tareas al nivel humano?».

En última instancia, se puede decir que esta declaración no fue tanto una «proclamación de la llegada de AGI», sino más bien un evento que visibilizó la disputa sobre dónde colocar el significado de la palabra AGI. Crear aplicaciones valiosas en un corto período, atraer usuarios, acelerar tareas específicas. Si solo miramos esas capacidades, la IA ya está comenzando a crear situaciones que rivalizan con los humanos. Sin embargo, si se considera como una inteligencia completa que incluye estrategia a largo plazo, recuperación de fracasos, mantenimiento de contexto y adaptación al mundo real ambiguo, todavía es demasiado pronto para decir que «se ha alcanzado». La posición actual en 2026 es más cercana a describirla como «una herramienta muy poderosa que ha comenzado a reemplazar económicamente algunas funciones humanas» en lugar de «una inteligencia similar a la humana».


URL de la fuente

G1 Globo
https://g1.globo.com/tecnologia/noticia/2026/03/25/ceo-da-nvidia-diz-que-inteligencia-artificial-atingiu-nivel-humano-por-que-ideia-e-contestada.ghtml

Fuente primaria de la declaración de Jensen Huang. Transcripción del Lex Fridman Podcast #494
https://lexfridman.com/jensen-huang-transcript/

Informe que organiza la declaración y la «rectificación/reserva» inmediata de Huang
https://www.theverge.com/ai-artificial-intelligence/899086/jensen-huang-nvidia-agi

Artículo de Reuters que transmitió la evaluación de Huang en 2024 de que «podría alcanzarse en cinco años»
https://www.reuters.com/technology/nvidia-ceo-says-ai-could-pass-human-tests-five-years-2024-03-01/

International AI Safety Report 2026 que organiza las capacidades y limitaciones actuales de la IA general, así como sus alucinaciones e inestabilidades
https://internationalaisafetyreport.org/publication/international-ai-safety-report-2026

Artículo que resume los comentarios de expertos brasileños mencionados en el artículo de G1
https://dailyjournal.news/news/2026-03-25/ceo-da-nvidia-diz-que-ia-atingiu-nivel-humano-mas-especialistas-contestam

Página de tendencias que muestra el conjunto de temas en X. Verificación de la situación mixta de aprobación y desaprobación
https://x.com/i/trending/2036153415601132001

Un ejemplo de recepción positiva. Reacciones en X/LinkedIn que interpretan que «se ha superado el umbral»
https://www.linkedin.com/posts/guillermoflor_breaking-nvidias-ceo-jensen-huang-just-activity-7442149074503487491-26Co

Un ejemplo de reacción escéptica. Publicaciones en X que ven la declaración como «una retirada inmediata» y «la lógica de alguien que vende GPU»
https://x.com/TukiFromKL/status/2036196478582985178
https://x.com/SirClmnt/status/2036200878307164651

Para verificar las reacciones en Reddit. Un hilo que reúne sarcasmo, ansiedad laboral y refutaciones a la definición
https://www.reddit.com/r/technology/comments/1s1vhsf/nvidia_ceo_jensen_huang_says_i_think_weve/

Para verificar las reacciones en Hacker News. Debate sobre el recorte del titular y las limitaciones prácticas de la IA actual
https://news.ycombinator.com/item?id=47495966