La segunda fase del auge de la IA: Un mundo que se dirige de la "escasez de GPU" a la "escasez de tokens"

La segunda fase del auge de la IA: Un mundo que se dirige de la "escasez de GPU" a la "escasez de tokens"

La demanda de IA aún no ha terminado: el día en que la economía de tokens absorba empresas, semiconductores y empleos

"¿No estará llegando a su pico el boom de la IA?".
Entre 2024 y 2025, esta pregunta se ha repetido una y otra vez entre inversores, medios de comunicación y ejecutivos de empresas. ¿Es la IA generativa una moda pasajera? ¿Es excesiva la inversión en GPU? ¿Las empresas realmente seguirán pagando por la IA?

Sin embargo, el artículo "La demanda de IA sigue en auge" publicado por NextBigFuture el 25 de abril de 2026, pinta un panorama bastante diferente a esas dudas. En lugar de una desaceleración, se prevé que la demanda de IA continúe superando significativamente la oferta. Y esa demanda no se limita al uso de chatbots o a la popularidad del tema. Es una realidad en la que las empresas están utilizando la IA en operaciones reales, escribiendo código, avanzando en investigaciones, automatizando análisis y comenzando a manejar tareas que antes requerían mucho tiempo y personal con equipos más pequeños.

En el centro de este artículo está la declaración de Dylan Patel de SemiAnalysis, conocido por su análisis de semiconductores e infraestructuras de IA. NextBigFuture menciona que el gasto en IA de SemiAnalysis ha aumentado drásticamente de unos pocos miles de dólares el año anterior a una tasa anual de 7 millones de dólares. Lo importante es que este gasto no es solo para investigadores e ingenieros. Incluso el personal no técnico utiliza Claude y la IA de generación de código en su trabajo diario, cambiando la forma en que se llevan a cabo las operaciones.

Este es un punto de vista extremadamente importante al considerar la demanda de IA. El valor de la IA no se mide por cuántas personas la prueban gratis. Se determina por cuánto las empresas la integran en sus procesos operativos, cuánto consumen en tokens y cómo ese consumo se traduce en ingresos, reducción de costos y velocidad de toma de decisiones. En otras palabras, los indicadores centrales de la economía de la IA están cambiando de "número de usuarios" a "consumo de tokens" y "valor económico por token".

Una era en la que la ejecución es barata y el valor de las ideas es cuestionado

Lo más estimulante del artículo de NextBigFuture es la afirmación de que la vieja noción de que "las ideas son baratas y la ejecución es difícil" está comenzando a desmoronarse.

En los negocios tradicionales, cualquiera podía tener una idea, pero la capacidad de ejecutarla, verificarla, comercializarla y mejorarla continuamente era el factor diferenciador. Crear un producto excelente requería ingenieros, diseñadores, analistas de datos, gerentes de proyectos y personal de ventas, y consumía tiempo y recursos.

Sin embargo, a medida que la IA escribe código, investiga, verifica hipótesis, crea documentos y analiza datos, el costo de la ejecución disminuye rápidamente. Por supuesto, se necesita el juicio humano y el control de calidad, pero la distancia para "probar primero", "investigar primero" y "verificar primero" se acorta drásticamente.

Este cambio representa una gran oportunidad para emprendedores y empresas. Incluso equipos pequeños pueden experimentar al nivel de grandes corporaciones. Los individuos pueden realizar análisis y desarrollos que antes se hacían a nivel departamental. El artículo de NextBigFuture menciona ejemplos como tableros de análisis de chips utilizando GPU y análisis de redes eléctricas en EE. UU., que se lograron con equipos pequeños en poco tiempo.

Sin embargo, en este mundo, la importancia de "qué crear" aumenta aún más. Cuanto más fácil sea la ejecución, más rápidamente se imitarán las ideas mediocres y se verán atrapadas en la competencia de precios. Dado que la IA permite crear casi cualquier cosa, aquellos que pueden formular preguntas realmente valiosas, las empresas con datos únicos o puntos de contacto con clientes, y las organizaciones con decisiones rápidas tendrán ventaja.

En la era de la IA, lo que tiene valor no es simplemente la cantidad de trabajo, sino la capacidad de formular buenos problemas, tener buenos datos, comprender bien el mercado y convertir la salida de la IA en beneficios reales.


La brecha entre las empresas que usan tokens y las que no

Otro argumento fuerte que presenta el artículo es la posibilidad de que "usar IA moderadamente" no sea suficiente.

Cuando se trata de implementar IA, muchas empresas primero piensan en la reducción de costos. Terminar un trabajo que solía tomar 8 horas en 1 hora. Reducir personal. Recortar gastos de subcontratación. Esto ciertamente tiene un efecto a corto plazo.

Sin embargo, el artículo de NextBigFuture enfatiza que eso no es suficiente para ganar. No se trata de trabajar 1 hora con IA y terminar, sino de usar las mismas 8 horas para producir 8 o 10 veces más resultados. En otras palabras, la brecha entre las empresas que usan la IA como "herramienta para facilitar el trabajo" y las que la usan como "herramienta para explotar la producción" se ampliará.

Esta perspectiva es bastante estricta. Las personas que no usan IA, las que la usan de manera limitada y las empresas que escatiman en el consumo de tokens se verán en una posición desventajosa a largo plazo. La expresión "clase baja permanente" que se menciona alrededor de Dylan Patel es extrema, pero el mensaje es claro. Se creará una nueva brecha entre aquellos que explotan la IA para generar valor y aquellos que se verán reemplazados por ella.

Por supuesto, esta discusión también requiere precaución. No se trata de que todos usen IA sin límites. Los problemas de información confidencial, desinformación, derechos de autor, seguridad, garantía de calidad y gestión de costos permanecen. Sin embargo, si las empresas limitan excesivamente el uso de la IA y el personal sigue atado a métodos antiguos, es probable que queden rezagadas en velocidad frente a competidores que aprovechan la IA activamente.

El desafío de gestión en la era de la IA ha pasado de ser "si usar IA o no" a "en qué tareas, con qué modelo, con qué autoridad y cuánto permitir su uso".


El cuello de botella de semiconductores detrás de la explosión de demanda

Cuanto más aumenta la demanda de IA, más se ponen de manifiesto las limitaciones del mundo real. Aunque los modelos parecen funcionar en la nube, detrás de ellos están los GPU, CPU, memoria, redes, energía, sistemas de refrigeración, centros de datos, equipos de fabricación de semiconductores y empaquetado avanzado.

El artículo de NextBigFuture señala que hay una escasez de suministro en cada capa de la infraestructura de IA, especialmente en memoria, TSMC, vida útil de CPU y GPU, comunicaciones ópticas, láminas de cobre, PCB y equipos de fabricación. La demanda de IA no solo está impulsando los GPU de NVIDIA. A medida que se expanden los agentes de IA y el procesamiento de inferencias, la carga también se extiende a CPU, DRAM, HBM, almacenamiento y equipos de red.

Este es un cambio importante. El boom inicial de inversión en IA se discutía principalmente en términos de la demanda de GPU necesaria para entrenar modelos a gran escala. Sin embargo, a medida que la IA se integra en las operaciones, el centro de la demanda se desplaza hacia la inferencia, es decir, el uso diario. Cuanto más utilicen las empresas la IA para generación de código, búsqueda, análisis, soporte al cliente, apoyo de ventas, diseño y control de robots, más recursos de cálculo continuos se necesitarán.

Y la demanda de inferencia es diferente de un entrenamiento masivo único. Ocurre cada día, cada hora, cada segundo. A medida que aumentan los usuarios y los agentes de IA comienzan a gestionar tareas de manera autónoma, el consumo de tokens aumenta más allá de la velocidad de entrada manual humana. La IA llama a otra IA, genera código, prueba, corrige, busca y resume nuevamente. Estos flujos de trabajo de tipo agente consumen muchos más recursos de cálculo que el uso tradicional de chat.

Como resultado, la cadena de suministro de semiconductores se ve ampliamente presionada. La escasez de DRAM y HBM, la capacidad de producción de procesos avanzados, el empaquetado avanzado como CoWoS, CPU para servidores, energía para centros de datos, redes eléctricas y sistemas de refrigeración. La demanda de IA es una cuestión tanto de la industria del software como de la manufactura, la energía y la geopolítica.


Anthropic, Claude Code y el "acaparamiento de modelos"

El artículo también menciona el crecimiento de ingresos de Anthropic y la expansión del uso de Claude Code. NextBigFuture dice que el ARR de Anthropic ha crecido significativamente y que la demanda es tan fuerte que se venden incluso si ajustan los precios o las restricciones de tasas. Sin embargo, dado que estas cifras incluyen estimaciones y declaraciones de partes interesadas sobre empresas no públicas, no deben tratarse como resultados financieros oficiales.

Aun así, la dirección es fácil de entender. Las herramientas de codificación de IA son rentables para las empresas. La generación de código, la corrección de errores, la creación de pruebas, las migraciones y el desarrollo de herramientas internas son áreas donde el ahorro de tiempo con IA se puede medir directamente. Considerando el costo por hora de los ingenieros y los costos de contratación, el gasto en modelos de alto rendimiento se justifica fácilmente.

Aquí es donde surge el problema del acceso a los mejores modelos. Si la demanda supera la oferta, las empresas de IA no necesitan ofrecer el modelo de máximo rendimiento a todos los usuarios en las mismas condiciones. Pueden priorizar a las empresas que pagan precios altos, que firman contratos a largo plazo o que son clientes estratégicamente importantes.

El "acaparamiento de modelos" mencionado en el artículo de NextBigFuture describe esta situación. Es posible que los modelos de máximo rendimiento o grandes cuotas de inferencia se asignen prioritariamente a empresas con poder adquisitivo. Si eso sucede, la ideal de democratización de la IA se vería socavada, concentrándose la capacidad de IA en unas pocas grandes empresas o empresas de altos ingresos.

Esto ya ocurrió en la era de la nube, pero podría ser aún más grave en la era de la IA. La diferencia en el acceso a los modelos de IA se traduce directamente en la velocidad de desarrollo de productos, la eficiencia de ventas, la capacidad de investigación y desarrollo, la capacidad de respuesta al cliente e incluso en la estructura de empleo.

La robótica podría crear la próxima ola de demanda

El artículo también menciona robots humanoides y robótica. Actualmente, la IA robótica enfrenta desafíos en la eficiencia de datos al conectar modelos de visión, lenguaje y acción. Sin embargo, si se produce un avance que permita aprender tareas a partir de unas pocas demostraciones, la demanda de IA en el mundo físico podría expandirse rápidamente.

Este punto es muy importante para considerar el futuro de la demanda de IA. Gran parte de la demanda actual de IA ocurre en el espacio digital, como texto, código, imágenes, videos, búsqueda y análisis. Pero si los robots comienzan a usarse en almacenes, fábricas, hogares, construcción, medicina, agricultura y logística, la IA también se adentrará en tareas físicas.

Las tareas en el mundo físico tienen un mercado más grande que las tareas digitales. Hay una gran cantidad de trabajos que los humanos realizan manualmente, trabajos que implican movimiento y trabajos que requieren adaptación a cambios ambientales. Si los robots pueden aprender estas tareas con pocas demostraciones, se necesitarán muchos recursos de cálculo para el aprendizaje, la inferencia, la simulación y el control por robot.

Por lo tanto, el avance en robótica podría convertirse en la segunda ola de demanda de GPU y tokens. Después de la IA de texto, vendría la IA física. Si eso sucede, la demanda de infraestructura de IA podría superar las expectativas actuales.


Reacciones en redes sociales y comentarios: optimismo, precaución y la amenaza china

 

Las reacciones en línea al artículo y a las declaraciones relacionadas de Dylan Patel no se dividen simplemente en aprobación o desaprobación. En general, hay tres tipos de reacciones.

Primero, la reacción optimista de inversores y personas del sector tecnológico. En X, hay publicaciones que indican que el gasto en IA no es solo una expectativa teórica, sino que se refleja en los pedidos y perspectivas de empresas como TSMC, ASML, empresas de memoria y centros de datos. La demanda de IA continúa, el ciclo de semiconductores no ha terminado y, de hecho, se está expandiendo más allá de los GPU hacia CPU, memoria e infraestructura eléctrica. Esta postura es similar a la del artículo de NextBigFuture.

En segundo lugar, la preocupación de los trabajadores y usuarios en general. Hay un fuerte temor de que la IA pueda quitar empleos, que las empresas puedan avanzar en la reducción de personal para invertir en IA, o que los centros de datos de IA puedan presionar los recursos eléctricos y hídricos de las regiones. Informes relacionados de Pew Research y NBC News también muestran que en EE. UU. hay una creciente preocupación por la IA. En las redes sociales, las publicaciones que ven la IA como una "herramienta para mejorar la productividad" chocan directamente con las que la ven como un "mecanismo que destruye empleos y creación".

En tercer lugar, la reacción en torno a la competencia con China. En la sección de comentarios del artículo de NextBigFuture, se publican comentarios que sugieren que la razón por la que los modelos chinos están rezagados respecto a EE. UU. no es tanto la tecnología en sí, sino las restricciones de suministro de chips, y que si China supera esas restricciones en unos años, las empresas de IA estadounidenses podrían enfrentar dificultades en una competencia de precios bajos. Esta es una perspectiva que ve la competencia de IA no solo en términos de rendimiento del modelo, sino también como un problema de suministro de semiconductores, políticas industriales nacionales y competitividad de precios.

Este comentario es solo la opinión de un lector, pero contiene puntos importantes. La actual hegemonía de la IA está integrada por modelos, datos, semiconductores, nube, energía y mercados de capital. Incluso si las empresas estadounidenses lideran con modelos de alto rendimiento y contratos de alto precio, si las empresas chinas avanzan con eficiencia y precios bajos, la estructura del mercado podría cambiar. Desde DeepSeek, el impacto de los modelos de bajo costo y alta eficiencia ya es ampliamente reconocido.


¿Realmente se extenderá la oposición a la IA?

El artículo de NextBigFuture también menciona la posibilidad de que se produzcan grandes protestas contra las empresas de IA, especialmente Anthropic y OpenAI, para el otoño de 2026. Esta es una predicción bastante fuerte, pero detrás de ella hay un cambio en la opinión pública.

La preocupación por la IA no es solo un miedo vago a la nueva tecnología. Hay cuestiones concretas que están aumentando, como el empleo, los derechos de autor, la educación, la desinformación, la vigilancia, el uso militar, la construcción de centros de datos y el consumo de energía. Cuanto más los líderes de las empresas de IA hablan de cómo "el mundo cambiará drásticamente" y "muchos trabajos cambiarán", más probable es que el público en general sienta ansiedad en lugar de expectativas.

Además, el hecho de que los beneficios de la IA sean difíciles de ver también es un problema. Las empresas reducen costos con la IA, los inversores disfrutan del aumento de los precios de las acciones, y los ingenieros y gerentes experimentan un aumento de la productividad. Por otro lado, lo que los consumidores generales pueden sentir es la automatización del soporte al cliente, la producción masiva de contenido de baja calidad, la inseguridad laboral y preocupaciones sobre las tarifas eléctricas y la infraestructura local.##HTML_TAG_113