Die Rechenleistung reicht nicht mehr zum Weinen! WSJ: Blackwell-Miete steigt innerhalb von zwei Monaten um 48%, Anthropic ist so langsam, dass Unternehmen abspringen

Die neueste Untersuchung der „Wall Street Journal“ enthüllt, dass die Rechenleistungsknappheit in der KI-Branche das Fass bereits vollständig zum Überlaufen gebracht hat. Die Blackwell-GPU-Spot-Mietpreise sind innerhalb von zwei Monaten von 2,75 USD pro Stunde auf 4,08 USD gestiegen, ein Plus von 48 %; die 90-Tage-normale Ausführungsrate der Claude-API liegt bei nur 98,95 %, weit unter dem unternehmensweiten Standard von 99,99 %, was bereits dazu geführt hat, dass Unternehmenskunden wie Retool abspringen und sich OpenAI zuwenden.
(Vorheriger Kontext: Die große Leerverkäuferin McKayla Berry wirft es in den Raum: Palantir sei nur eine Outsourcing-Firma mit niedrigen Margen in SaaS! Anthropic frisst sie auf)
(Ergänzender Hintergrund: Claude-Nutzung wird verdoppelt geschenkt! Anthropic bietet zeitlich begrenzte Rabatte, sodass Nutzer in Taiwan fast den ganzen Tag davon profitieren)

Inhaltsverzeichnis

Umschalten

  • Anthropic ist das Schlimmste
  • OpenAI sucht überall nach Rechenleistung und muss Sora abschalten
  • CoreWeave muss Großkunden mit astronomischen Zahlen gewinnen, während es gleichzeitig kleinere und mittlere Kunden verdrängt

Die gesamte Rechenleistung der Welt ist bereits ausgeschöpft. Selbst die Blackwell-GPU-Spot-Mietpreise sind in zwei Monaten um 48 % gestiegen, und auch die Menschen, die dabei zuschauen, wie das Claude-Code-Display bei „thinking…“ stehen bleibt, haben alle zu wenig.

Der von Ornn veröffentlichte „Compute Price Index“ (Ornn Compute Price Index, OCPI) wurde in jüngster Zeit in das Bloomberg Terminal (Bloomberg Terminal) aufgenommen. Institutionelle Anleger können die Echtzeit-Entwicklung der GPU-Spot-Mietpreise jetzt direkt verfolgen, so wie man auch den Ölpreis verfolgt.

Der Kernfaktor, der diese Preiserhöhungen antreibt, ist die explodierende Nachfrage nach Agentic AI (agentischer KI). KI ist nicht mehr nur eine Frage-und-Antwort-Funktion für die Vorderseite von Webseiten, sondern braucht Aufgaben, die lange Zeit und kontinuierlich im Hintergrund laufen sollen – ganz in einem anderen Größenbereich, wenn es um den Appetit auf Rechenleistung geht. Die Rechenleistungsversorgung kommt noch nicht hoch, aber die Nachfrage ist zuerst explodiert.

Vultr-CEO J.J. Kardwell sagt es ganz direkt: „Das ist die schlimmste Rechenleistungs-Knappheit, die ich in über fünf Jahren gesehen habe, in denen ich diese Firma führe. Die Bauzyklen für Rechenzentren sind zu lang, und die verfügbare Energie für 2026 ist bereits vollständig verplant.“ Beachten Sie: Er sagt „Energie“, nicht „Chips“.

Die Engpässe bei der Rechenleistung im Jahr 2026 liegen nicht mehr in den GPU-Produktionslinien, sondern im Stromnetz – die Rechenzentren warten auf Strom.

Anthropic ist das Schlimmste

Die Claude-API hat in den 90 Tagen bis zum 8. April eine normale Ausführungsrate von 98,95 %; der branchenübliche unternehmensweite Standard liegt bei 99,99 %. Es fehlen 1,04 Prozentpunkte – das klingt nach wenig, bedeutet aber in der Praxis jeden Monat knapp acht Stunden zusätzliche Ausfallzeit.

Unternehmen, die KI in ihren Kern-Workflow integrieren, können das nicht akzeptieren (wobei es sich so anhört, als müssten selbst normale Nutzer das hinnehmen).

Retool-Gründer und CEO David Hsu lieferte einen Satz, der Anthropic vermutlich die Schamröte ins Gesicht treiben dürfte: „Ich glaube, Opus 4.6 ist das beste Enterprise-Modell, aber am Ende sind wir zu OpenAI gewechselt, weil Anthropic ständig hängen bleibt.“

Retool ist eine Unternehmensplattform für Softwareentwicklung und damit der Kunde, den Anthropic am dringendsten braucht, doch die Aufträge sind trotzdem weggeflogen, weil die Rechenleistung nicht ausreicht.

Anthropic begann Ende März mit Begrenzungsmaßnahmen: Von Montag bis Freitag von 5 bis 11 Uhr pazifischer Zeit wird der Token-Verbrauch der Nutzer eingeschränkt. Und noch früher, Mitte März, hatte Anthropic bereits die „Nutzung außerhalb der Stoßzeiten verdoppeln“-Aktion eingeführt, um Taiwan-Nutzer dazu zu ermutigen, die Stoßzeiten zu meiden. Wenn man jetzt zurückblickt, war dieses Angebot nicht einfach nur Wohltat – es ging darum, den Traffic in die Randzeiten umzuleiten und den Spitzenzeiten Kapazität frei zu halten.

Wir sehen, dass die jährliche Umsatzwachstumsrate (ARR) von Anthropic unglaublich ist. Im Jahr 2025 Ende war es $90 Million, in diesem Februar ging es auf $140 Million, und im April hat es bereits $300 Million erreicht. Man verdient immer mehr Geld, aber es ist umso schlimmer, weil hinter dem neuen Umsatz ein noch größerer Bedarf an Rechenleistung steckt und die Versorgungslücke immer größer wird.

OpenAI sucht überall nach Rechenleistung und muss Sora abschalten

Die verarbeitete Menge der OpenAI-API-Token lag im Oktober 2025 bei 6 Milliarden pro Minute; Ende März dieses Jahres liegt sie bereits bei 15 Milliarden pro Minute. In fünf Monaten ist das um das Zweieinhalbfache gestiegen. Nicht weil das Modell besser wird, sondern weil die Nutzung mit einer geradezu übertriebenen Geschwindigkeit explodiert.

CFO Sarah Friar sagte: „Ich verbringe sehr viel Zeit damit, überall nach den letzten verfügbaren Brocken Rechenleistung zu suchen. Wir treffen gerade sehr schmerzhafte Entscheidungen, und manche Projekte werden wegen nicht ausreichender Rechenleistung aufgegeben.“

Deshalb wissen wir, dass Sora abgeschaltet wurde: OpenAI hat diese Video-Generierungsanwendung aus dem Programm genommen. Ein Teil des Grundes ist, die freigesetzten Chip-Ressourcen in Programmier-Tools und Unternehmensprodukte umzuleiten.

CoreWeave muss Großkunden mit astronomischen Zahlen gewinnen, während es gleichzeitig kleinere und mittlere Kunden verdrängt

CoreWeave erhöhte Ende letzten Jahres die Miete um mehr als 20 % und verlangte gleichzeitig, dass kleine und mittlere Kunden mindestens einen Vertrag über drei Jahre unterzeichnen müssen, zuvor waren es ein Jahr. Für Start-ups und mittelgroße Unternehmen, die Flexibilität brauchen, ist das praktisch gleichbedeutend damit, sie wegzudrängen.

Aber für Großkunden fährt CoreWeave eine andere Strategie. Am 10. April dieses Jahres gab CoreWeave gerade bekannt, dass es mit Anthropic einen mehrjährigen Vertrag abgeschlossen hat. Damit kann Anthropic auf die Nvidia-GPU-Rechenleistung in US-Rechenzentren zugreifen. Anthropic verspricht, bis zu 1 GW (1 Gigawatt) an Rechenleistung bereitzustellen, unter Einsatz von Nvidia Grace Blackwell sowie der nächsten Generation der Vera-Rubin-Hardware.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

IEA: Die Ausgaben für KI-Infrastruktur haben bereits die Investitionen in die Öl- und Gasförderung übertroffen; 2026 sollen sie voraussichtlich um weitere 75% steigen

Laut einer Analyse und Marktdaten der Internationalen Energieagentur (IEA), die am 26. April veröffentlicht wurden, übersteigt die kumulierte Investitionssumme der fünf größten Technologiekonzerne im Jahr 2025 400 Milliarden US-Dollar. Der Schwerpunkt liegt hauptsächlich auf dem Ausbau der KI-Infrastruktur; das Volumen hat das jährliche Investitionsniveau der weltweiten Erdöl- und Erdgasförderung bereits übertroffen. Die IEA schätzt, dass die entsprechenden Investitionsausgaben im Jahr 2026 möglicherweise um weitere 75% steigen werden.

MarketWhisper16M her

Senator Bernie Sanders gibt Warnung vor der existenziellen Bedrohung durch KI aus

Sanders betonte, dass selbst dann, wenn die meisten KI-Wissenschaftler die Möglichkeit anerkennen, dass KI die Kontrolle entkommt und zu einer Gefahr für unser Dasein wird, keine wichtigen Maßnahmen ergriffen wurden, um dies zu verhindern. „Wir müssen sicherstellen, dass KI der Menschheit zugutekommt und uns nicht schadet“, sagte er. Kernaussagen: Bernie Sanders

Coinpedia25M her

Leiter für das Xiaomi-Großmodell: Der KI-Wettbewerb verlagert sich in die Ära der Agenten; Selbstentwicklung ist ein entscheidendes Ereignis für AGI

Das Leitungsteam des Xiaomi-Großmodells, die Verantwortliche Luofuli, führte am 24. April auf der Bilibili-Plattform ein tiefgehendes Interview (Videonummer: BV1iVoVBgERD) durch. Die Interviewdauer betrug 3,5 Stunden; es war ihr erstes öffentliches, systematisches Darlegen technischer Standpunkte in ihrer Rolle als technische Verantwortliche. Luofuli sagte, dass der Wettbewerbskurs für Großmodelle vom Chat-Zeitalter in das Agent-Zeitalter übergegangen sei, und wies darauf hin, dass „Selbstentwicklung“ das entscheidende Ereignis für AGI im kommenden Jahr sein werde.

MarketWhisper26M her

xAI Grok Voice übernimmt die Starlink-Kundendienst-Hotline, 70% der Anrufe werden automatisch abgeschlossen

Gemäß dem offiziellen Update von xAI vom 23. April hat xAI den Sprach-KI-Agenten „Grok Voice Think Fast 1.0“ eingeführt und ihn bereits in der Starlink-Kundenservice-Hotline +1 (888) GO STARLINK eingesetzt. Laut den in der Ankündigung offengelegten Testdaten werden 70% der Anrufe automatisch durch KI abgeschlossen, ohne dass ein Mensch eingreifen muss.

MarketWhisper37M her

GPT-5.5 kehrt an die Spitze im Codieren zurück, aber OpenAI wechselt Benchmarks, nachdem es gegen Opus 4.7 verloren hat

Gate News Nachricht, 27. April — SemiAnalysis, ein Unternehmen für Halbleiter- und KI-Analysen, veröffentlichte einen vergleichenden Benchmark für Code-Assistenten, darunter GPT-5.5, Claude Opus 4.7 und DeepSeek V4. Die wichtigste Erkenntnis: GPT-5.5 markiert OpenAI's erste Rückkehr an die Spitze der Coding-Modelle seit sechs Monaten, wobei SemiAnalysis-Ingenieure nun zwischen Codex und Claude Code wechseln, nachdem sie zuvor fast ausschließlich auf Claude gesetzt hatten. GPT-5.5 basiert auf einem neuen Vortrainingsansatz mit dem Codenamen "Spud" und stellt OpenAI's erste Ausweitung der Vortraining-Skala seit GPT-4.5. In praktischen Tests zeigte sich eine klare Arbeitsteilung. Claude übernimmt neues Projekt-Planning und die anfängliche Einrichtung, während Codex besonders bei fehlerbehebungen glänzt, die viel Denkaufwand erfordern. Codex zeigt ein stärkeres Verständnis für Datenstrukturen und logisches Denken, hat jedoch Schwierigkeiten, die mehrdeutige Nutzerabsicht abzuleiten. Bei einer einzelnen Dashboard-Aufgabe replizierte Claude automatisch die Layout-Referenzseite, fabrizierte jedoch große Mengen an Daten, während Codex das Layout übersprang, aber deutlich genauere Daten lieferte. Die Analyse deckt einen Benchmark-Manipulationsaspekt auf: In seinem Februar-Blogbeitrag forderte OpenAI die Branche auf, SWE-bench Pro als neuen Standard für Coding-Benchmarks zu übernehmen. Allerdings wechselte die Ankündigung von GPT-5.5 zu einem neuen Benchmark namens "Expert-SWE." Der Grund, in den Feinheiten versteckt, ist, dass GPT-5.5 von Opus 4.7 auf SWE-bench Pro übertroffen wurde und deutlich hinter Anthropic's unveröffentlichtem Mythos 77.8% zurückfiel. Bezüglich Opus 4.7 veröffentlichte Anthropic eine Mortem-Analyse eine Woche nach dem Release und erkannte drei Bugs in Claude Code an, die mehrere Wochen lang von März bis April anhielten und nahezu alle Nutzer betrafen. Mehrere Ingenieure hatten zuvor eine Leistungsverschlechterung in Version 4.6 gemeldet, waren jedoch mit der Begründung abgetan worden, es handele sich um subjektive Beobachtungen. Zusätzlich erhöht der neue Tokenizer von Opus 4.7 die Token-Nutzung um bis zu 35%, was Anthropic offen zugab — effektiv eine versteckte Preiserhöhung. DeepSeek V4 wurde als "mit der Spitze Schritt haltend, aber nicht führend" bewertet und positionierte sich als die kostengünstigste Alternative unter Closed-Source-Modellen. Die Analyse stellte außerdem fest, dass "Claude DeepSeek V4 Pro bei hochschwierigen chinesischen Schreibaufgaben weiterhin übertrifft," und kommentierte: "Claude gewann gegen das chinesische Modell in dessen eigener Sprache." Der Artikel führt ein zentrales Konzept ein: Die Modellpreisgestaltung sollte anhand der "Kosten pro Aufgabe" statt der "Kosten pro Token" bewertet werden. Der Preis von GPT-5.5 ist doppelt so hoch wie der von GPT-5.4 input $5, output pro Million Tokens, aber es erledigt die gleichen Aufgaben mit weniger Tokens, wodurch die tatsächlichen Kosten nicht notwendigerweise höher sind. Erste SemiAnalysis-Daten zeigen, dass das Input-zu-Output-Verhältnis von Codex bei 80:1 liegt, niedriger als das von Claude Code mit 100:1.

GateNews42M her

Google DeepMind-Manager: Jede KI-Produktfirma sollte benutzerdefinierte Benchmarks entwickeln

Gate-News-Meldung, 27. April — Logan Kilpatrick, Senior-Produktmanager bei Google DeepMind und Produktleiter für Google AI Studio, sagte auf X, dass jede Firma, die KI-basierte Produkte entwickelt, eigene benutzerdefinierte Benchmarks festlegen sollte, um die Leistung von KI-Modellen zu messen. Er beschrieb dies als eine Methode, um

GateNews1Std her
Kommentieren
0/400
Keine Kommentare