Anthropic Claude-Unternehmensversion wechselt als Erste zu nutzungsabhängiger Abrechnung – spart ein KI-Mitarbeiter wirklich mehr Geld?

ChainNewsAbmedia

Wenn Unternehmen ihre Kalkulation darauf ausrichten, „mit KI menschliche Arbeitskräfte zu ersetzen, um Kosten zu senken“, ändert Anthropic die Spielregeln. Dieser KI-Gigant hat kürzlich die Abrechnungsstruktur für die Unternehmensversion von Claude aktualisiert: Die Nutzung von Claude, Claude Code und Cowork wird nicht mehr aus einem monatlichen Abonnementpreis von 40 US-Dollar heraus getrennt, sondern stattdessen nach der tatsächlich verbrauchten Anzahl an Tokens separat abgerechnet. Heute scheinen die Kosten für KI-Mitarbeiter nicht so günstig zu sein, wie es von außen heißt.

(Kann man mit klassischem Chinesisch und KI-Gesprächen Tokens sparen? Ein Screenshot löst eine Debatte aus, sagt ein Ingenieur: Eigentlich ist Englisch der richtige Weg)

Das Zeitalter der Pauschalrate ist vorbei: Claude Enterprise Pricing wurde überarbeitet – wie viel man nutzt, so viel zahlt man

Laut dem Bericht von The Information heißt es, dass die aktualisierten Unternehmensunterlagen von Anthropic geschrieben haben: „Monatliche Sitzplatzgebühr (seats) umfasst nur den Plattformzugang und keine Nutzungsmenge; alle Verbräuche werden separat nach dem Standard-API-Tarif abgerechnet.“ Früher kauften Unternehmen „All-you-can-eat“, jetzt wird daraus „Pay-per-Use“.

Unter dem alten Modell betrugen die monatlichen Abonnementkosten pro Unternehmens-Konto etwa 40 bis 200 US-Dollar, inklusive 10% bis 15% API-Rabatt. Obwohl das neue Modell die Abo-Gebühr zwar auf 20 US-Dollar pro Monat senkt, werden gleichzeitig alle API-Rabatte gestrichen; zudem müssen Unternehmen im Voraus eine Verpflichtung eingehen und die geschätzte monatliche Token-Nutzungsmenge im Voraus bezahlen. Unabhängig davon, ob man tatsächlich mehr oder weniger nutzt, ist der zugesagte Betrag weiterhin fällig, und je höher die zugesagte Menge ist, desto weniger gilt kein niedrigerer Einzelpreis.

Diese Struktur ist für Anthropic vorhersehbarer Jahres-Recurring-Umsatz; für Unternehmen hingegen bedeutet sie die Verlagerung von Kosten und Risiken in Bezug auf die Nutzung.

Der wahre Auslöser für angepasste Preisgestaltung: „Knappheit an Rechenleistung“

Anthropic bezeichnet diese Anpassung als „Produktoptimierung“, doch der treibende Faktor dahinter sind die unaufhörlich hohen Kosten für Rechenleistung. Selbst wenn der annualisierte Umsatz von Anthropic in nur vier Monaten von 9 Milliarden US-Dollar auf 30 Milliarden US-Dollar steigt, bringt das den Nutzern nicht Rabatte, sondern eine Umstrukturierung der Einnahmen.

Der Kern liegt in der Art, wie AI-Agenten (AI Agent) ihren Stromverbrauch erzeugen: Herkömmliche Chats sind „kleine Schlucke“, aber Agent-Workflows, die mehrstufige Aufgabenketten verknüpfen, wiederholt ausführen oder sogar die Zusammenarbeit mehrerer Agenten beinhalten, sind „große Gläser voll“.

Auch auf der Angebotsseite ist es eng: Die Mietpreise für Blackwell-GPUs sind innerhalb von zwei Monaten um 48% gestiegen, CoreWeave hat Anfang vergangenen Jahres die Preise um über 20% erhöht, und eine Prognose US-amerikanischer Banken erwartet, dass die Nachfrage nach Rechenleistung weiter bis 2029 schrumpfen wird. Die Einnahmen, die durch Pauschalraten entstehen, sind für Anthropic schon längst nicht mehr tragbar.

Instabilität der Leistung – die wirklichste Warnleuchte für Geschäftskunden

Darüber hinaus ist auch die Stabilität des Services ein großes Problem. Retool-Gründer David Hsu erklärte laut Wall Street Journal, dass er trotz der besseren Leistung von Claude Opus 4.6 seine Arbeitsabläufe letztlich auf das andere System verlagert habe. Der Grund: Der Claude-Dienst werde häufig unterbrochen, sodass er Code oft nicht rechtzeitig liefern könne.

Die Anthropic API erreichte in den 90 Tagen bis zum 8. April dieses Jahres lediglich eine betriebsbereite Zeit von 98,95% – deutlich unter dem Branchenniveau von 99,99%. Hsu zeigt damit eine Sache: Bei der Entscheidung zwischen Dienstzuverlässigkeit und Modellleistung brauchen Unternehmen vor allem eine stabile KI.

Die realen Kosten von KI-Mitarbeitern sind weitaus komplexer als die Zahlen auf der Rechnung

Heute ist das traditionelle KI-Preismodell mit „monatlicher Abonnementgebühr“ vorbei; stattdessen wird die Gesamtkostenrechnung anhand des tatsächlichen Token-Verbrauchs neu berechnet. In Verträgen um Rabatte beim Volumen oder um flexible Anpassungsklauseln kämpfen oder die Ausgaben proaktiv durch die Optimierung von Prompts, Batch-Processing und Cache-Strategien steuern – das wird zu einer neuen Aufgabe für Unternehmen, die KI einführen und transformieren wollen.

Vor einigen Tagen hat auch OpenAI angekündigt, Codex auf Token-Basis abzurechnen; außerdem hat GitHub am 10. April die Obergrenze für Copilot-Nutzung verschärft, und Windsurf hat das Punktesystem durch tägliche Kontingente ersetzt. Die gesamte KI-Industrie verkündet damit gleichzeitig das Ende des Zeitalters der Pauschalraten.

Bevor Unternehmen prüfen, wie viele Menschenkosten sich durch die Einführung von KI einsparen lassen, müssen sie vielleicht erst testen, ob Nutzer unter einem begrenzten Budget stabile und qualitativ hochwertige Ergebnisse produzieren können.

Dieser Artikel, in dem zuerst die Unternehmensversion von Anthropic Claude auf nutzungsbasierte Abrechnung umstellt, stellt die Frage: Spart das wirklich Geld bei KI-Mitarbeitern, wie es heißt? Erstmals erschienen in der Kettennachricht ABMedia.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Anthropic führt Wahlschutzmaßnahmen für Claude ein, bevor die Zwischenwahlen 2026 anstehen

Anthropic kündigte am Freitag eine Reihe von Maßnahmen zur Integrität von Wahlen an, die verhindern sollen, dass sein Claude-KI-Chatbot missbraucht wird, um Fehlinformationen zu verbreiten oder Wähler zu manipulieren – vor den US-amerikanischen Zwischenwahlen 2026 und anderen wichtigen Wettbewerben in diesem Jahr auf der ganzen Welt. Der in San Francisco ansässige

CryptoFrontier1Std her

DeepRoute.ai Fortschrittliches Assistenzfahrsystem durchbricht 300.000 Fahrzeug-Deployments: Ziel 2026 1 Million City NOA-Flotte

DeepRoute.ai kündigt an, dass sein fortschrittliches Assistenzfahr-Pilot-System in China kumuliert über 300.000 Fahrzeuge installiert hat; im vergangenen Jahr wurden dabei über 180.000 potenzielle Unfälle vermieden. Das Ziel für 2026 ist eine Flotte von 1.000.000 Stadt-NOA-Fahrzeugen mit einer Auslastung von über 50%; dies wird als Schlüssel für die großflächige Kommerzialisierung von Robotaxis angesehen. Dies zeigt, dass das autonome Fahren in China in den Alltag übergegangen ist; zugleich zeichnet sich eine Trennungslinie gegenüber dem vertikal integrierten Weg in den USA ab, die den Zeitplan der Lieferkette im Asien-Pazifik-Raum beeinflusst.

ChainNewsAbmedia3Std her

DeepSeek veröffentlicht V4-Pro- und V4-Flash-Modelle zu 98% geringeren Kosten als OpenAI's GPT-5.5 Pro

Gate News-Meldung, 25. April — DeepSeek hat am 24. April Vorschauversionen von V4-Pro und V4-Flash veröffentlicht, beides Open-Weight-Modelle mit Kontextfenstern von einer Million Token. V4-Pro verfügt über 1,6 Billionen Gesamtparameter, aktiviert jedoch nur 49 Milliarden pro Inferenzdurchlauf mithilfe einer Mixture-of-Experts-Architektur.

GateNews8Std her

Richter weist Betrugsvorwürfe in Elons Musk OpenAI-Klage zurück; Verfahren schreitet mit zwei verbleibenden Vorwürfen zur Verhandlung voran

Gate News Nachricht, 24. April — Ein Bundesrichter hat Betrugsvorwürfe zurückgewiesen, die Elon Musk in seiner Klage gegen OpenAI, Sam Altman, Greg Brockman und Microsoft erhoben hatte, und damit den Weg frei gemacht, dass der Fall vor Gericht mit zwei verbleibenden Vorwürfen weitergeführt wird: Verletzung eines wohltätigen Treuhandverhältnisses und ungerechtfertigte Bereicherung. U.S.

GateNews11Std her

OpenAI-CEO Sam Altman entschuldigt sich dafür, das gesperrte Konto des Schulamoktäters nicht der Polizei gemeldet zu haben

Gate-News-Meldung, 25. April — OpenAI-CEO Sam Altman hat sich bei der Gemeinde Tamborine in Kanada dafür entschuldigt, dass das Unternehmen es versäumt hat, die Polizei über ein gesperrtes Konto zu informieren, das mit Jesse Van Rootselaar in Verbindung stand. Van Rootselaar tötete im Februar acht Menschen an einer Schule, bevor er sich selbst das Leben nahm. OpenAI

GateNews12Std her

VAE kündigen eine Verlagerung hin zu einem KI-Regierungsmodell in den nächsten zwei Jahren an

Seine Hoheit Scheich Mohammed bin Rashid Al Maktoum erklärte, das Ziel sei, dass 50% der staatlichen Ressorts über autonome agentische KI betrieben werden. Der Übergang wird außerdem die Schulung von Bundesbediensteten umfassen, um „KI zu meistern“, und wird von Scheich Mansour bin Zayed überwacht. Wichtige Erkenntnisse:

Coinpedia12Std her
Kommentieren
0/400
Keine Kommentare