Die zweite Phase des AI-Booms: Von GPU-Mangel zur "Token-Knappheit"

Die zweite Phase des AI-Booms: Von GPU-Mangel zur "Token-Knappheit"

Die Nachfrage nach KI ist noch nicht vorbei – Der Tag, an dem die Token-Ökonomie Unternehmen, Halbleiter und Arbeitsplätze verschlingt

„Ist der KI-Boom nicht bald am Höhepunkt?“
Von 2024 bis 2025 wurde diese Frage immer wieder unter Investoren, Medien und Unternehmensleitern gestellt. Ist generative KI nur ein vorübergehender Hype? Sind die Investitionen in GPUs übertrieben? Werden Unternehmen wirklich weiterhin Geld für KI ausgeben?

Doch die von NextBigFuture am 25. April 2026 veröffentlichte Welt in dem Artikel „AI Demand is Still Booming“ zeichnet ein ganz anderes Bild. Statt eines Nachfragerückgangs wird davon ausgegangen, dass die Nachfrage das Angebot weiterhin deutlich übersteigt. Und diese Nachfrage beschränkt sich nicht nur auf die Nutzung von Chatbots oder auf den Hype. Unternehmen setzen KI tatsächlich in ihren Geschäftsprozessen ein, lassen Code schreiben, führen Recherchen durch, automatisieren Analysen und beginnen, Arbeiten, die zuvor viele Menschen und viel Zeit benötigten, mit kleinen Teams zu erledigen.

Im Mittelpunkt des Artikels steht die Aussage von Dylan Patel von SemiAnalysis, bekannt für seine Analysen zu Halbleitern und KI-Infrastruktur. NextBigFuture berichtet, dass die KI-Ausgaben von SemiAnalysis selbst von einigen zehntausend Dollar im Vorjahr auf nunmehr umgerechnet 7 Millionen Dollar pro Jahr gestiegen sind. Wichtig ist, dass diese Ausgaben nicht nur auf Forscher und Ingenieure beschränkt sind. Auch nicht-technische Mitarbeiter nutzen Claude und KI zur Codegenerierung im Alltag und verändern damit die Art und Weise, wie sie arbeiten.

Dies ist eine äußerst wichtige Perspektive, wenn man über die Nachfrage nach KI nachdenkt. Der Wert von KI lässt sich nicht daran messen, wie viele Menschen sie kostenlos ausprobiert haben. Entscheidend ist, wie stark Unternehmen KI in ihre Geschäftsprozesse integrieren, wie viele Tokens sie verbrauchen und wie dieser Verbrauch zu Umsatz, Kosteneinsparungen und schnelleren Entscheidungsprozessen führt. Das bedeutet, dass sich die zentralen Indikatoren der KI-Wirtschaft von der „Anzahl der Nutzer“ hin zum „Tokenverbrauch“ und dem „wirtschaftlichen Wert pro Token“ verschieben.

Eine Ära, in der die Ausführung günstiger wird und der Wert von Ideen in Frage gestellt wird

Der vielleicht spannendste Aspekt des NextBigFuture-Artikels ist die Behauptung, dass das alte Sprichwort „Ideen sind billig, Ausführung ist schwer“ ins Wanken gerät.

In der bisherigen Geschäftswelt konnte jeder Ideen haben, aber die Fähigkeit, diese umzusetzen, zu testen, zu verkaufen und kontinuierlich zu verbessern, war der entscheidende Differenzierungsfaktor. Um ein hervorragendes Produkt zu schaffen, waren Ingenieure, Designer, Datenanalysten, Projektmanager und Vertriebsmitarbeiter erforderlich, und es kostete Zeit und Geld.

Doch wenn KI Code schreibt, recherchiert, Hypothesen testet, Materialien erstellt und Daten analysiert, sinken die Ausführungskosten rapide. Natürlich sind menschliche Urteile und Qualitätskontrollen notwendig, aber die Distanz zu „einfach mal machen“, „einfach mal nachforschen“ oder „einfach mal testen“ wird erheblich kürzer.

Diese Veränderung bietet Unternehmern und Unternehmen große Chancen. Kleine Teams können genauso viel ausprobieren wie große Unternehmen. Einzelpersonen können Analysen und Entwicklungen durchführen, die früher auf Abteilungsebene stattfanden. Der Artikel von NextBigFuture stellt Beispiele vor, bei denen Aufgaben wie die Chip-Analyse-Dashboards mit GPUs oder die Analyse des US-Stromnetzes und die KI-Einfluss-Benchmarking in kurzer Zeit von kleinen Teams realisiert wurden.

Allerdings wird in dieser Welt die Frage „Was soll geschaffen werden?“ noch wichtiger. Je einfacher die Ausführung wird, desto schneller werden mittelmäßige Ideen nachgeahmt und in Preiskämpfe verwickelt. Gerade weil man mit KI alles Mögliche schaffen kann, sind diejenigen im Vorteil, die wirklich wertvolle Fragen stellen können, über einzigartige Daten oder Kundenkontakte verfügen und schnelle Entscheidungen treffen können.

In der KI-Ära zählt nicht die bloße Arbeitsmenge, sondern die Fähigkeit, gute Probleme zu definieren, gute Daten zu haben, den Markt gut zu verstehen und die KI-Ausgaben in reale Gewinne zu verwandeln.


Die Kluft zwischen Unternehmen, die Tokens nutzen, und solchen, die es nicht tun

Ein weiterer starker Punkt, den der Artikel aufwirft, ist die Möglichkeit, dass es nicht ausreicht, KI nur mäßig zu nutzen.

Bei der Einführung von KI denken viele Unternehmen zunächst an Kostensenkungen. Eine Arbeit, die früher acht Stunden dauerte, in einer Stunde zu erledigen. Personalabbau. Outsourcing-Kosten senken. Das hat kurzfristig sicherlich Wirkung.

Doch der Artikel von NextBigFuture betont, dass das allein nicht ausreicht, um zu gewinnen. Unternehmen, die nicht nur eine Stunde arbeiten und dann aufhören, sondern die vollen acht Stunden nutzen, um acht- bis zehnmal mehr Output zu erzielen, werden gewinnen. Das heißt, ob KI als „Werkzeug zur Erleichterung“ oder als „Werkzeug zur Explosion der Produktionsmenge“ genutzt wird, wird die Kluft zwischen den Unternehmen vergrößern.

Diese Sichtweise ist ziemlich streng. Menschen, die keine KI nutzen, solche, die sie nur eingeschränkt nutzen, und Unternehmen, die den Tokenverbrauch einschränken, werden langfristig in einer benachteiligten Position verharren. Der Ausdruck „permanent underclass“, der im Umfeld von Dylan Patel verwendet wird, ist provokant, aber die Botschaft ist klar. Es wird eine neue Kluft zwischen denen geben, die KI voll ausschöpfen und Wert schaffen, und denen, die von KI ersetzt werden.

Natürlich ist bei dieser Diskussion Vorsicht geboten. Es geht nicht darum, dass jeder unbegrenzt KI nutzen sollte. Probleme wie vertrauliche Informationen, Fehlinformationen, Urheberrechte, Sicherheit, Qualitätskontrolle und Kostenmanagement bleiben bestehen. Aber wenn Unternehmen die Nutzung von KI übermäßig einschränken und ihre Mitarbeiter an alten Arbeitsweisen festhalten, besteht die Gefahr, dass sie im Vergleich zu Wettbewerbern, die KI aktiv nutzen, in Bezug auf Geschwindigkeit ins Hintertreffen geraten.

Die Managementherausforderung in der KI-Ära besteht nicht darin, „ob KI genutzt wird“, sondern „welche Aufgaben, welches Modell, mit welcher Autorität und in welchem Umfang genutzt werden sollen“.


Das Halbleiter-Engpass hinter der Nachfrageexplosion

Je mehr die Nachfrage nach KI steigt, desto mehr treten die realen Einschränkungen in den Vordergrund. Modelle scheinen in der Cloud zu laufen, aber dahinter stehen GPUs, CPUs, Speicher, Netzwerke, Strom, Kühlanlagen, Rechenzentren, Halbleiterfertigungsanlagen und fortschrittliche Verpackungen.

Der Artikel von NextBigFuture weist darauf hin, dass es insbesondere bei Speicher, TSMC, CPU, GPU-Lebensdauer, optischer Kommunikation, Kupferfolie, PCB, Fertigungsanlagen und anderen Schichten der KI-Infrastruktur zu Engpässen kommt. Die KI-Nachfrage treibt nicht nur die Nachfrage nach NVIDIAs GPUs an. Mit der Verbreitung von KI-Agenten und Inferenzprozessen steigt auch die Belastung für CPUs, DRAM, HBM, Speicher und Netzwerkgeräte.

Dies ist eine bedeutende Veränderung. Der anfängliche KI-Investitionsboom wurde hauptsächlich als GPU-Nachfrage für das Training großer Modelle beschrieben. Doch wenn KI in die Praxis integriert wird, verlagert sich der Schwerpunkt der Nachfrage auf die Inferenz, also die tägliche Nutzung. Je mehr Unternehmen KI für Codegenerierung, Suche, Analyse, Kundensupport, Vertriebshilfe, Design und Robotiksteuerung einsetzen, desto mehr kontinuierliche Rechenressourcen werden benötigt.

Und die Inferenznachfrage unterscheidet sich von einmaligen großen Trainings. Sie tritt täglich, stündlich, jede Sekunde auf. Wenn die Nutzerzahl steigt und KI-Agenten autonom Aufgaben übernehmen, übersteigt der Tokenverbrauch die Geschwindigkeit der menschlichen Eingabe. KI ruft andere KIs auf, generiert Code, testet, korrigiert, sucht und fasst erneut zusammen. Solche agentenbasierten Workflows verbrauchen weit mehr Rechenressourcen als die herkömmliche Chat-Nutzung.

Infolgedessen wird die Halbleiterversorgungskette umfassend unter Druck gesetzt. Mangel an DRAM und HBM, Produktionskapazitäten für fortschrittliche Prozesse, fortschrittliche Verpackungen wie CoWoS, Server-CPUs, Rechenzentrumsstrom, Stromnetze, Kühlanlagen. Die KI-Nachfrage ist sowohl ein Thema der Softwareindustrie als auch der Fertigungsindustrie, der Energie und der Geopolitik.


Anthropic, Claude Code und das „Horten von Modellen“

Der Artikel erwähnt auch das Umsatzwachstum von Anthropic und die zunehmende Nutzung von Claude Code. NextBigFuture berichtet, dass das ARR von Anthropic stark wächst und die Nachfrage so stark ist, dass selbst bei Anpassungen von Preisen oder Ratenbegrenzungen verkauft wird. Allerdings sollten solche Zahlen, da sie Schätzungen und Aussagen von Insidern über nicht börsennotierte Unternehmen enthalten, nicht wie offizielle Abschlüsse behandelt werden.

Dennoch ist die Richtung verständlich. KI-Codierungstools sind für Unternehmen in Bezug auf Kosten-Nutzen-Verhältnis leicht nachvollziehbar. Codegenerierung, Fehlerbehebung, Testentwicklung, Migrationsarbeiten und interne Tool-Entwicklung sind Bereiche, in denen die Zeitersparnis durch KI direkt messbar ist. Angesichts der Stundenlöhne von Ingenieuren und der Einstellungskosten lässt sich der Aufwand für leistungsstarke Modelle leicht rechtfertigen.

Das Problem ist der Zugang zu den besten Modellen. Wenn die Nachfrage das Angebot übersteigt, müssen KI-Unternehmen nicht allen Nutzern unter den gleichen Bedingungen die leistungsstärksten Modelle zur Verfügung stellen. Unternehmen, die hohe Preise zahlen, langfristige Verträge abschließen oder strategisch wichtige Kunden sind, können bevorzugt behandelt werden.

Der Begriff „model hoarding“, den der Artikel von NextBigFuture verwendet, beschreibt diese Situation. Die leistungsstärksten Modelle oder große Inferenzkapazitäten könnten bevorzugt an finanzstarke Unternehmen vergeben werden. Sollte dies geschehen, würde das Ideal der Demokratisierung von KI ins Gegenteil verkehrt, und die KI-Fähigkeiten würden sich auf einige große oder ertragsstarke Unternehmen konzentrieren.

Dies geschah auch in der Cloud-Ära, könnte jedoch in der KI-Ära noch gravierender werden. Denn der Zugang zu KI-Modellen hat direkten Einfluss auf die Produktentwicklungsgeschwindigkeit, Vertriebseffizienz, Forschungs- und Entwicklungsfähigkeiten, Kundenbetreuung und sogar die Beschäftigungsstruktur.

Robotics könnte die nächste Nachfragewelle auslösen

Der Artikel spricht auch über humanoide Roboter und Robotik. Die aktuelle Roboter-KI hat noch Herausforderungen in Bezug auf die Dateneffizienz bei Modellen, die Sehen, Sprache und Handeln verbinden. Sollte jedoch ein Durchbruch gelingen, der es ermöglicht, Aufgaben aus wenigen Demonstrationen zu lernen, könnte die Nachfrage nach KI in der physischen Welt sprunghaft ansteigen.

Dies ist ein sehr wichtiger Punkt, wenn man über die Zukunft der KI-Nachfrage nachdenkt. Ein Großteil der aktuellen KI-Nachfrage entsteht im digitalen Raum, wie Texte, Code, Bilder, Videos, Suche und Analyse. Doch wenn Roboter in Lagerhäusern, Fabriken, Haushalten, im Bauwesen, im Gesundheitswesen, in der Landwirtschaft und in der Logistik eingesetzt werden, wird KI auch in physische Arbeiten eindringen.

Die Marktgröße für physische Arbeiten ist größer als für digitale Arbeiten. Es gibt eine riesige Menge an Arbeit, die von Menschen mit den Händen erledigt wird, Arbeit, die mit Bewegung verbunden ist, Arbeit, die sich an Umweltveränderungen anpassen muss. Wenn Roboter in der Lage sind, diese Aufgaben mit wenigen Beispielen zu lernen, wird eine große Menge an Rechenressourcen für das Lernen, die Inferenz, die Simulation und die Steuerung pro Roboter benötigt.

Das bedeutet, dass der Fortschritt in der Robotik die zweite Welle der Nachfrage nach GPUs und Tokens auslösen könnte. Nach dem Text-KI kommt die physische KI. Sollte dies geschehen, könnte die Nachfrage nach KI-Infrastruktur die derzeitigen Erwartungen übertreffen.


Reaktionen in sozialen Medien und Kommentarsektionen: Optimismus, Vorsicht, China-Bedrohung

 

Die Reaktionen im Internet auf diesen Artikel und die damit verbundenen Aussagen von Dylan Patel sind nicht einfach in Zustimmung oder Ablehnung zu unterteilen. Im Großen und Ganzen gibt es drei Reaktionen.

Erstens die optimistische Reaktion von Investoren und Tech-Insidern. Auf X gibt es Beiträge, die darauf hinweisen, dass die KI-Ausgaben nicht nur theoretische Erwartungen sind, sondern sich in den Aufträgen und Prognosen von TSMC, ASML, Speicherunternehmen und Rechenzentrumsunternehmen widerspiegeln. Die KI-Nachfrage hält an, der Halbleiterzyklus ist nicht vorbei, sondern breitet sich über GPUs hinaus auf CPUs, Speicher und Strominfrastruktur aus. Diese Sichtweise steht dem Artikel von NextBigFuture nahe.

Zweitens die Besorgnis von Arbeitnehmern und allgemeinen Nutzern. Es gibt starke Bedenken, dass KI Arbeitsplätze gefährden könnte, dass Unternehmen Personal abbauen könnten, um in KI zu investieren, und dass KI-Rechenzentren die lokalen Strom- und Wasserressourcen belasten könnten. Berichte von Pew Research und NBC News zeigen, dass in den USA die Besorgnis über KI zunimmt. In sozialen Medien stehen sich Beiträge, die KI als „Werkzeug zur Produktivitätssteigerung“ sehen, und solche, die KI als „Mechanismus zur Zerstörung von Arbeitsplätzen und Kreativität“ betrachten, direkt gegenüber.

Drittens die Reaktion auf den Wettbewerb mit China. In den Kommentaren zum Artikel von NextBigFuture wird darauf hingewiesen, dass der Grund, warum chinesische Modelle hinter den US-amerikanischen zurückbleiben, weniger die Technologie selbst als die Einschränkungen in der Chipversorgung sind. Sollte China diese Einschränkungen in den nächsten Jahren überwinden, könnten US-amerikanische KI-Unternehmen im Preiskampf in Schwierigkeiten geraten. Dies ist eine Perspektive, die den KI-Wettbewerb nicht nur als Frage der Modellleistung, sondern auch der Halbleiterversorgung, der nationalen Industriepolitik und der Preiswettbewerbsfähigkeit betrachtet.

Dieser Kommentar ist nur die Meinung eines Lesers, enthält jedoch wichtige Punkte. Die derzeitige KI-Vorherrschaft ist eine Kombination aus Modellen, Daten, Halbleitern, Cloud, Strom und Kapitalmärkten. Auch wenn US-Unternehmen mit leistungsstarken Modellen und hochpreisigen Verträgen voraus sind, könnte sich die Marktstruktur ändern, wenn chinesische Unternehmen mit Effizienz und niedrigen Preisen aufholen. Seit DeepSeek ist der Einfluss von kostengünstigen und effizienten Modellen bereits weitgehend anerkannt.


Wird der Widerstand gegen KI wirklich zunehmen?

Der Artikel von NextBigFuture spricht auch über die Möglichkeit großer Proteste gegen KI-Unternehmen, insbesondere Anthropic und OpenAI, bis zum Herbst 2026. Dies ist eine ziemlich starke Vorhersage, aber sie beruht auf einem Wandel in der öffentlichen Meinung.

Die Besorgnis über KI ist nicht nur eine vage Angst vor neuer Technologie. Es gibt zunehmend konkrete Streitpunkte wie Beschäftigung, Urheberrechte, Bildung, Fehlinformationen, Überwachung, militärische Nutzung, den Bau von Rechenzentren und den Energieverbrauch. Je mehr die Führungskräfte von KI-Unternehmen darüber sprechen, dass „die Welt sich stark verändern wird“ und „viele Arbeitsplätze sich verändern werden“, desto mehr fühlen sich die Menschen eher besorgt als erwartungsvoll.

##