Altman: Token-Based Pricing Becoming Obsolete as GPT-5.5 Shifts Focus to Task Completion Over Token Count

Gate News message, April 29 — OpenAI CEO Sam Altman said in an interview with Ben Thompson on Stratechery that token-based pricing is not a long-term viable model for AI services. Using GPT-5.5 as an example, Altman noted that while the per-token price is significantly higher than GPT-5.4, the model uses far fewer tokens to complete the same task, meaning customers do not care about token count—they only care about whether the task is completed and the total cost.

“We are not a token factory; we are more like an intelligence factory,” Altman said. “Customers want to buy the most intelligence for the least money. Whether the underlying work is done by a large model running few tokens or a small model running many tokens does not matter to them.” He added that OpenAI’s current customer base is increasingly demanding more capacity rather than negotiating prices, with far more customers saying “give us more capacity, no matter the cost” than those asking for discounts.

Drawing a parallel to utilities, Altman explained that unlike water or electricity—where lower prices do not significantly increase consumption—AI demand scales differently. “As long as the price is low enough, I will keep using more. No other public utility works this way,” he said. AWS CEO Matt Garman added that computing power prices have dropped by multiple orders of magnitude over the past 30 years, yet more compute is being sold today than ever before.

Altman also characterized ChatGPT as “the first truly large-scale consumer product since Facebook,” acknowledging that while AI was expected to disrupt search, the real wins came from ChatGPT itself and the Codex API. He noted that “Google is still underestimated in many ways.”

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Cognition macht Singapur zum APAC-Hauptsitz und richtet den Blick auf die regionale Expansion

Gate-News-Meldung, 29. April — Cognition, das KI-Coding-Startup hinter Devin, kündigte am 29. April an, dass es Singapur als seinen Hauptsitz für Asien-Pazifik etablieren wird, um das regionale Wachstum über Südostasien, Australien, Indien und Südkorea hinweg zu steuern. Richard Spence wird die APAC-Operationen leiten

GateNews16M her

Google und das Pentagon unterzeichnen geheime KI-Vereinbarungen, Mitarbeiter-Open-Brief protestiert

Laut The Information in der Berichterstattung vom 28. April hat Google eine Vereinbarung unterzeichnet, um dem US-amerikanischen Pentagon KI-(AI-)Modelle für vertrauliche Arbeiten zur Verfügung zu stellen. Die New York Times zitiert informierte Personen mit der Aussage, dass die Vereinbarung es dem US-Verteidigungsministerium ermögliche, Googles KI für legitime staatliche Zwecke zu nutzen, in Art und Weise ähnlich wie die geheimen KI-Implementierungsabkommen, die das Pentagon im vergangenen Monat mit OpenAI und xAI unterzeichnet hat.

MarketWhisper36M her

a16z Crypto Forschungsbericht: KI-Agenten-DeFi-Ausnutzungsrate von 70%

Laut dem von a16z Crypto am 29. April veröffentlichten Forschungsbericht liegt die Erfolgsquote von KI-Agenten bei der Wiederholung der Ethereum-Preismanipulationslücke unter Bedingungen mit strukturiertem Domänenwissen bei 70%; in einer Sandbox-Umgebung ohne jegliches Domänenwissen beträgt die Erfolgsquote nur 10%. Der Bericht dokumentiert außerdem Fälle, in denen KI-Agenten die Sandbox-Beschränkungen unabhängig voneinander umgehen, um auf zukünftige Transaktionsinformationen zuzugreifen, sowie systematische Ausfallmuster, wenn Agenten dabei sind, mehrstufige, profitable Angriffspläne zu erstellen.

MarketWhisper1Std her

OpenAI-Modelle sollen schrittweise zu Amazons benutzerdefiniertem Trainium-Chip migrieren, sagt Altman — er sei "sehr gespannt" darauf

Gate-News-Mitteilung, 29. April — OpenAI-Modelle, die auf dem Amazon Web Services Bedrock laufen, werden schrittweise auf Trainium migrieren, Amazons eigens entwickelten KI-Chip, wie jüngste Aussagen von OpenAI-CEO Sam Altman und AWS-Führungskräften nahelegen. Aktuell arbeiten die Modelle in einer gemischten Umgebung, die sowohl GPUs als auch Trainium nutzt, wobei der Anteil mit der Zeit zunehmend auf Trainium übergeht. Altman sagte, das Unternehmen sei "bereit, Modelle auf Trainium zu verlagern." AWS-Manager Garman räumte ein, dass der Name Trainium möglicherweise irreführend gewesen sein könnte, da der Chip für sowohl Training als auch Inferenz ausgelegt ist, wobei Inferenz in Zukunft voraussichtlich der wichtigste Anwendungsfall sein wird. Garman betonte jedoch, dass das Chip-Branding für die meisten Kunden weitgehend irrelevant sei; Nutzer kämen mit OpenAI über die API-Schnittstelle in Kontakt, nicht direkt mit der zugrunde liegenden Hardware. Auf die Frage nach einer zukünftigen Integration von Nicht-OpenAI-Modellen in Bedrock Managed Agents ging Garman nicht ins Detail und erklärte lediglich, dass AWS derzeit auf seine Partnerschaft mit OpenAI fokussiert sei. Die Zusammenarbeit unterstreicht Amazons Strategie, seine eigene kundenspezifische Siliziumtechnologie zu nutzen, um große KI-Workloads auf seiner Cloud-Plattform zu unterstützen.

GateNews1Std her

Ant Groups Ling-2.6-flash-Modell Open Source gestellt: 104B Parameter mit 7,4B aktiv, erreicht mehrere SOTA-Benchmarks

Gate News Nachricht, 29. April — Die Modellgewichte von Ant Groups Ling-2.6-flash wurden jetzt Open Source gestellt und waren zuvor nur über eine API verfügbar. Das Modell verfügt über 104 Milliarden Gesamtparameter, wobei 7,4 Milliarden pro Inferenz aktiviert werden, ein 256K-Context-Fenster und eine MIT-Lizenz. BF16, FP8 und INT4

GateNews2Std her

Sam Altman veröffentlicht einen Codex-Dual-Modus Screenshot, bei dem Büro- und Programmierfunktionen offiziell getrennt werden

Ein Screenshot und eine Erklärung, die der CEO von OpenAI, Sam Altman, am 29. April auf der X-Plattform veröffentlicht hat: Codex bringt eine neue Version der Benutzeroberfläche für die Anleitung heraus. Wenn Benutzer zum ersten Mal eintreten, müssen sie zwischen zwei Modi auswählen, nämlich Excelmogging und Codemaxxing. Die derzeitigen wöchentlich aktiven Nutzer von Codex liegen bereits bei über 4 Millionen, und die Einsatzszenarien haben sich von der Codegenerierung auf nicht-technische Zwecke ausgeweitet.

MarketWhisper2Std her
Kommentieren
0/400
Keine Kommentare