Wenn Unternehmen ihre Kalkulation darauf ausrichten, „mit KI menschliche Arbeitskräfte zu ersetzen, um Kosten zu senken“, ändert Anthropic die Spielregeln. Dieser KI-Gigant hat kürzlich die Abrechnungsstruktur für die Unternehmensversion von Claude aktualisiert: Die Nutzung von Claude, Claude Code und Cowork wird nicht mehr aus einem monatlichen Abonnementpreis von 40 US-Dollar heraus getrennt, sondern stattdessen nach der tatsächlich verbrauchten Anzahl an Tokens separat abgerechnet. Heute scheinen die Kosten für KI-Mitarbeiter nicht so günstig zu sein, wie es von außen heißt.
(Kann man mit klassischem Chinesisch und KI-Gesprächen Tokens sparen? Ein Screenshot löst eine Debatte aus, sagt ein Ingenieur: Eigentlich ist Englisch der richtige Weg)
Das Zeitalter der Pauschalrate ist vorbei: Claude Enterprise Pricing wurde überarbeitet – wie viel man nutzt, so viel zahlt man
Laut dem Bericht von The Information heißt es, dass die aktualisierten Unternehmensunterlagen von Anthropic geschrieben haben: „Monatliche Sitzplatzgebühr (seats) umfasst nur den Plattformzugang und keine Nutzungsmenge; alle Verbräuche werden separat nach dem Standard-API-Tarif abgerechnet.“ Früher kauften Unternehmen „All-you-can-eat“, jetzt wird daraus „Pay-per-Use“.
Unter dem alten Modell betrugen die monatlichen Abonnementkosten pro Unternehmens-Konto etwa 40 bis 200 US-Dollar, inklusive 10% bis 15% API-Rabatt. Obwohl das neue Modell die Abo-Gebühr zwar auf 20 US-Dollar pro Monat senkt, werden gleichzeitig alle API-Rabatte gestrichen; zudem müssen Unternehmen im Voraus eine Verpflichtung eingehen und die geschätzte monatliche Token-Nutzungsmenge im Voraus bezahlen. Unabhängig davon, ob man tatsächlich mehr oder weniger nutzt, ist der zugesagte Betrag weiterhin fällig, und je höher die zugesagte Menge ist, desto weniger gilt kein niedrigerer Einzelpreis.
Diese Struktur ist für Anthropic vorhersehbarer Jahres-Recurring-Umsatz; für Unternehmen hingegen bedeutet sie die Verlagerung von Kosten und Risiken in Bezug auf die Nutzung.
Der wahre Auslöser für angepasste Preisgestaltung: „Knappheit an Rechenleistung“
Anthropic bezeichnet diese Anpassung als „Produktoptimierung“, doch der treibende Faktor dahinter sind die unaufhörlich hohen Kosten für Rechenleistung. Selbst wenn der annualisierte Umsatz von Anthropic in nur vier Monaten von 9 Milliarden US-Dollar auf 30 Milliarden US-Dollar steigt, bringt das den Nutzern nicht Rabatte, sondern eine Umstrukturierung der Einnahmen.
Der Kern liegt in der Art, wie AI-Agenten (AI Agent) ihren Stromverbrauch erzeugen: Herkömmliche Chats sind „kleine Schlucke“, aber Agent-Workflows, die mehrstufige Aufgabenketten verknüpfen, wiederholt ausführen oder sogar die Zusammenarbeit mehrerer Agenten beinhalten, sind „große Gläser voll“.
Auch auf der Angebotsseite ist es eng: Die Mietpreise für Blackwell-GPUs sind innerhalb von zwei Monaten um 48% gestiegen, CoreWeave hat Anfang vergangenen Jahres die Preise um über 20% erhöht, und eine Prognose US-amerikanischer Banken erwartet, dass die Nachfrage nach Rechenleistung weiter bis 2029 schrumpfen wird. Die Einnahmen, die durch Pauschalraten entstehen, sind für Anthropic schon längst nicht mehr tragbar.
Instabilität der Leistung – die wirklichste Warnleuchte für Geschäftskunden
Darüber hinaus ist auch die Stabilität des Services ein großes Problem. Retool-Gründer David Hsu erklärte laut Wall Street Journal, dass er trotz der besseren Leistung von Claude Opus 4.6 seine Arbeitsabläufe letztlich auf das andere System verlagert habe. Der Grund: Der Claude-Dienst werde häufig unterbrochen, sodass er Code oft nicht rechtzeitig liefern könne.
Die Anthropic API erreichte in den 90 Tagen bis zum 8. April dieses Jahres lediglich eine betriebsbereite Zeit von 98,95% – deutlich unter dem Branchenniveau von 99,99%. Hsu zeigt damit eine Sache: Bei der Entscheidung zwischen Dienstzuverlässigkeit und Modellleistung brauchen Unternehmen vor allem eine stabile KI.
Die realen Kosten von KI-Mitarbeitern sind weitaus komplexer als die Zahlen auf der Rechnung
Heute ist das traditionelle KI-Preismodell mit „monatlicher Abonnementgebühr“ vorbei; stattdessen wird die Gesamtkostenrechnung anhand des tatsächlichen Token-Verbrauchs neu berechnet. In Verträgen um Rabatte beim Volumen oder um flexible Anpassungsklauseln kämpfen oder die Ausgaben proaktiv durch die Optimierung von Prompts, Batch-Processing und Cache-Strategien steuern – das wird zu einer neuen Aufgabe für Unternehmen, die KI einführen und transformieren wollen.
Vor einigen Tagen hat auch OpenAI angekündigt, Codex auf Token-Basis abzurechnen; außerdem hat GitHub am 10. April die Obergrenze für Copilot-Nutzung verschärft, und Windsurf hat das Punktesystem durch tägliche Kontingente ersetzt. Die gesamte KI-Industrie verkündet damit gleichzeitig das Ende des Zeitalters der Pauschalraten.
Bevor Unternehmen prüfen, wie viele Menschenkosten sich durch die Einführung von KI einsparen lassen, müssen sie vielleicht erst testen, ob Nutzer unter einem begrenzten Budget stabile und qualitativ hochwertige Ergebnisse produzieren können.
Dieser Artikel, in dem zuerst die Unternehmensversion von Anthropic Claude auf nutzungsbasierte Abrechnung umstellt, stellt die Frage: Spart das wirklich Geld bei KI-Mitarbeitern, wie es heißt? Erstmals erschienen in der Kettennachricht ABMedia.
Verwandte Artikel
Anthropic führt Wahlschutzmaßnahmen für Claude ein, bevor die Zwischenwahlen 2026 anstehen
DeepRoute.ai Fortschrittliches Assistenzfahrsystem durchbricht 300.000 Fahrzeug-Deployments: Ziel 2026 1 Million City NOA-Flotte
DeepSeek veröffentlicht V4-Pro- und V4-Flash-Modelle zu 98% geringeren Kosten als OpenAI's GPT-5.5 Pro
Richter weist Betrugsvorwürfe in Elons Musk OpenAI-Klage zurück; Verfahren schreitet mit zwei verbleibenden Vorwürfen zur Verhandlung voran
OpenAI-CEO Sam Altman entschuldigt sich dafür, das gesperrte Konto des Schulamoktäters nicht der Polizei gemeldet zu haben
VAE kündigen eine Verlagerung hin zu einem KI-Regierungsmodell in den nächsten zwei Jahren an