Die neueste Untersuchung der „Wall Street Journal“ enthüllt, dass die Rechenleistungsknappheit in der KI-Branche das Fass bereits vollständig zum Überlaufen gebracht hat. Die Blackwell-GPU-Spot-Mietpreise sind innerhalb von zwei Monaten von 2,75 USD pro Stunde auf 4,08 USD gestiegen, ein Plus von 48 %; die 90-Tage-normale Ausführungsrate der Claude-API liegt bei nur 98,95 %, weit unter dem unternehmensweiten Standard von 99,99 %, was bereits dazu geführt hat, dass Unternehmenskunden wie Retool abspringen und sich OpenAI zuwenden.
(Vorheriger Kontext: Die große Leerverkäuferin McKayla Berry wirft es in den Raum: Palantir sei nur eine Outsourcing-Firma mit niedrigen Margen in SaaS! Anthropic frisst sie auf)
(Ergänzender Hintergrund: Claude-Nutzung wird verdoppelt geschenkt! Anthropic bietet zeitlich begrenzte Rabatte, sodass Nutzer in Taiwan fast den ganzen Tag davon profitieren)
Inhaltsverzeichnis
Umschalten
Die gesamte Rechenleistung der Welt ist bereits ausgeschöpft. Selbst die Blackwell-GPU-Spot-Mietpreise sind in zwei Monaten um 48 % gestiegen, und auch die Menschen, die dabei zuschauen, wie das Claude-Code-Display bei „thinking…“ stehen bleibt, haben alle zu wenig.
Der von Ornn veröffentlichte „Compute Price Index“ (Ornn Compute Price Index, OCPI) wurde in jüngster Zeit in das Bloomberg Terminal (Bloomberg Terminal) aufgenommen. Institutionelle Anleger können die Echtzeit-Entwicklung der GPU-Spot-Mietpreise jetzt direkt verfolgen, so wie man auch den Ölpreis verfolgt.
Der Kernfaktor, der diese Preiserhöhungen antreibt, ist die explodierende Nachfrage nach Agentic AI (agentischer KI). KI ist nicht mehr nur eine Frage-und-Antwort-Funktion für die Vorderseite von Webseiten, sondern braucht Aufgaben, die lange Zeit und kontinuierlich im Hintergrund laufen sollen – ganz in einem anderen Größenbereich, wenn es um den Appetit auf Rechenleistung geht. Die Rechenleistungsversorgung kommt noch nicht hoch, aber die Nachfrage ist zuerst explodiert.
Vultr-CEO J.J. Kardwell sagt es ganz direkt: „Das ist die schlimmste Rechenleistungs-Knappheit, die ich in über fünf Jahren gesehen habe, in denen ich diese Firma führe. Die Bauzyklen für Rechenzentren sind zu lang, und die verfügbare Energie für 2026 ist bereits vollständig verplant.“ Beachten Sie: Er sagt „Energie“, nicht „Chips“.
Die Engpässe bei der Rechenleistung im Jahr 2026 liegen nicht mehr in den GPU-Produktionslinien, sondern im Stromnetz – die Rechenzentren warten auf Strom.
Die Claude-API hat in den 90 Tagen bis zum 8. April eine normale Ausführungsrate von 98,95 %; der branchenübliche unternehmensweite Standard liegt bei 99,99 %. Es fehlen 1,04 Prozentpunkte – das klingt nach wenig, bedeutet aber in der Praxis jeden Monat knapp acht Stunden zusätzliche Ausfallzeit.
Unternehmen, die KI in ihren Kern-Workflow integrieren, können das nicht akzeptieren (wobei es sich so anhört, als müssten selbst normale Nutzer das hinnehmen).
Retool-Gründer und CEO David Hsu lieferte einen Satz, der Anthropic vermutlich die Schamröte ins Gesicht treiben dürfte: „Ich glaube, Opus 4.6 ist das beste Enterprise-Modell, aber am Ende sind wir zu OpenAI gewechselt, weil Anthropic ständig hängen bleibt.“
Retool ist eine Unternehmensplattform für Softwareentwicklung und damit der Kunde, den Anthropic am dringendsten braucht, doch die Aufträge sind trotzdem weggeflogen, weil die Rechenleistung nicht ausreicht.
Anthropic begann Ende März mit Begrenzungsmaßnahmen: Von Montag bis Freitag von 5 bis 11 Uhr pazifischer Zeit wird der Token-Verbrauch der Nutzer eingeschränkt. Und noch früher, Mitte März, hatte Anthropic bereits die „Nutzung außerhalb der Stoßzeiten verdoppeln“-Aktion eingeführt, um Taiwan-Nutzer dazu zu ermutigen, die Stoßzeiten zu meiden. Wenn man jetzt zurückblickt, war dieses Angebot nicht einfach nur Wohltat – es ging darum, den Traffic in die Randzeiten umzuleiten und den Spitzenzeiten Kapazität frei zu halten.
Wir sehen, dass die jährliche Umsatzwachstumsrate (ARR) von Anthropic unglaublich ist. Im Jahr 2025 Ende war es $90 Million, in diesem Februar ging es auf $140 Million, und im April hat es bereits $300 Million erreicht. Man verdient immer mehr Geld, aber es ist umso schlimmer, weil hinter dem neuen Umsatz ein noch größerer Bedarf an Rechenleistung steckt und die Versorgungslücke immer größer wird.
Die verarbeitete Menge der OpenAI-API-Token lag im Oktober 2025 bei 6 Milliarden pro Minute; Ende März dieses Jahres liegt sie bereits bei 15 Milliarden pro Minute. In fünf Monaten ist das um das Zweieinhalbfache gestiegen. Nicht weil das Modell besser wird, sondern weil die Nutzung mit einer geradezu übertriebenen Geschwindigkeit explodiert.
CFO Sarah Friar sagte: „Ich verbringe sehr viel Zeit damit, überall nach den letzten verfügbaren Brocken Rechenleistung zu suchen. Wir treffen gerade sehr schmerzhafte Entscheidungen, und manche Projekte werden wegen nicht ausreichender Rechenleistung aufgegeben.“
Deshalb wissen wir, dass Sora abgeschaltet wurde: OpenAI hat diese Video-Generierungsanwendung aus dem Programm genommen. Ein Teil des Grundes ist, die freigesetzten Chip-Ressourcen in Programmier-Tools und Unternehmensprodukte umzuleiten.
CoreWeave erhöhte Ende letzten Jahres die Miete um mehr als 20 % und verlangte gleichzeitig, dass kleine und mittlere Kunden mindestens einen Vertrag über drei Jahre unterzeichnen müssen, zuvor waren es ein Jahr. Für Start-ups und mittelgroße Unternehmen, die Flexibilität brauchen, ist das praktisch gleichbedeutend damit, sie wegzudrängen.
Aber für Großkunden fährt CoreWeave eine andere Strategie. Am 10. April dieses Jahres gab CoreWeave gerade bekannt, dass es mit Anthropic einen mehrjährigen Vertrag abgeschlossen hat. Damit kann Anthropic auf die Nvidia-GPU-Rechenleistung in US-Rechenzentren zugreifen. Anthropic verspricht, bis zu 1 GW (1 Gigawatt) an Rechenleistung bereitzustellen, unter Einsatz von Nvidia Grace Blackwell sowie der nächsten Generation der Vera-Rubin-Hardware.
Verwandte Artikel
IEA: Die Ausgaben für KI-Infrastruktur haben bereits die Investitionen in die Öl- und Gasförderung übertroffen; 2026 sollen sie voraussichtlich um weitere 75% steigen
Senator Bernie Sanders gibt Warnung vor der existenziellen Bedrohung durch KI aus
Leiter für das Xiaomi-Großmodell: Der KI-Wettbewerb verlagert sich in die Ära der Agenten; Selbstentwicklung ist ein entscheidendes Ereignis für AGI
xAI Grok Voice übernimmt die Starlink-Kundendienst-Hotline, 70% der Anrufe werden automatisch abgeschlossen
GPT-5.5 kehrt an die Spitze im Codieren zurück, aber OpenAI wechselt Benchmarks, nachdem es gegen Opus 4.7 verloren hat
Google DeepMind-Manager: Jede KI-Produktfirma sollte benutzerdefinierte Benchmarks entwickeln