Gate-News-Mitteilung, 22. April — Laut einer Klarstellung der Plattform hat Anthropic seine Richtlinie zur Nutzung von Claude CLI für Drittanbieter-Tools wie OpenClaw nicht gelockert. Die vermeintliche Änderung der Richtlinie beruhte tatsächlich auf einer Fehlinterpretation durch den OpenClaw-Gründer Peter Steinberger einer Aussage, die von Claude Code-Leiter Boris Cherny am 6. April gemacht wurde.
Borrys ursprüngliche Antwort ging auf ein konkretes Problem ein: Steinberger hatte die offizielle Claude CLI mit dem -p-Parameter und einem Systemprompt getestet, in dem „running inside OpenClaw“ erwähnt wurde, wodurch Anthropics Klassifizierer das als Drittanbieter-Nutzung einstufte und von Extra Usage abzieht. Boris räumte die übertriebene Reaktion des Klassifizierers ein und versprach, die Nutzungshinweise für den -p-Parameter zu verbessern. Seine Aussage richtete sich jedoch darauf, False Positives für einzelne Entwickler zu verhindern, nicht um OpenClaw eine Ausnahme zu gewähren. Steinberger interpretierte dies fälschlicherweise als generelle Freigabe, und in Version 2026.4.7 stellte er Claude CLI als Standard-Backend für neue Nutzer wieder her und behauptete in der Dokumentation von OpenClaw, dass „Claude -p reuse jetzt erlaubt ist."
Der serverseitige Klassifizierer von Anthropic wies OpenClaw-Anfragen zweimal zurück und identifizierte es anhand seines Systemprompt-Fingerprints als Drittanbieter-Nutzung. Da OpenClaw die eigentlichen Anfragen initiiert, berechnet Anthropic weiterhin Drittanbieter-Tarife, obwohl darunter die offizielle CLI verwendet wird. Steinberger erkannte später den Widerspruch: theoretisch erlaubt, praktisch verweigert. Der Streit entstand aus unpräziser Sprache — Boris wollte die Grenzen des Klassifizierers verfeinern, um Entwickler vor Fehlklassifizierungen zu schützen, während Steinberger dies so interpretierte, als würde es die Abdeckung auf OpenClaw selbst ausweiten.
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to
Disclaimer.
Verwandte Artikel
IEA: Die Ausgaben für KI-Infrastruktur haben bereits die Investitionen in die Öl- und Gasförderung übertroffen; 2026 sollen sie voraussichtlich um weitere 75% steigen
Laut einer Analyse und Marktdaten der Internationalen Energieagentur (IEA), die am 26. April veröffentlicht wurden, übersteigt die kumulierte Investitionssumme der fünf größten Technologiekonzerne im Jahr 2025 400 Milliarden US-Dollar. Der Schwerpunkt liegt hauptsächlich auf dem Ausbau der KI-Infrastruktur; das Volumen hat das jährliche Investitionsniveau der weltweiten Erdöl- und Erdgasförderung bereits übertroffen. Die IEA schätzt, dass die entsprechenden Investitionsausgaben im Jahr 2026 möglicherweise um weitere 75% steigen werden.
MarketWhisper8M her
Senator Bernie Sanders gibt Warnung vor der existenziellen Bedrohung durch KI aus
Sanders betonte, dass selbst dann, wenn die meisten KI-Wissenschaftler die Möglichkeit anerkennen, dass KI die Kontrolle entkommt und zu einer Gefahr für unser Dasein wird, keine wichtigen Maßnahmen ergriffen wurden, um dies zu verhindern. „Wir müssen sicherstellen, dass KI der Menschheit zugutekommt und uns nicht schadet“, sagte er.
Kernaussagen:
Bernie Sanders
Coinpedia17M her
Leiter für das Xiaomi-Großmodell: Der KI-Wettbewerb verlagert sich in die Ära der Agenten; Selbstentwicklung ist ein entscheidendes Ereignis für AGI
Das Leitungsteam des Xiaomi-Großmodells, die Verantwortliche Luofuli, führte am 24. April auf der Bilibili-Plattform ein tiefgehendes Interview (Videonummer: BV1iVoVBgERD) durch. Die Interviewdauer betrug 3,5 Stunden; es war ihr erstes öffentliches, systematisches Darlegen technischer Standpunkte in ihrer Rolle als technische Verantwortliche. Luofuli sagte, dass der Wettbewerbskurs für Großmodelle vom Chat-Zeitalter in das Agent-Zeitalter übergegangen sei, und wies darauf hin, dass „Selbstentwicklung“ das entscheidende Ereignis für AGI im kommenden Jahr sein werde.
MarketWhisper18M her
xAI Grok Voice übernimmt die Starlink-Kundendienst-Hotline, 70% der Anrufe werden automatisch abgeschlossen
Gemäß dem offiziellen Update von xAI vom 23. April hat xAI den Sprach-KI-Agenten „Grok Voice Think Fast 1.0“ eingeführt und ihn bereits in der Starlink-Kundenservice-Hotline +1 (888) GO STARLINK eingesetzt. Laut den in der Ankündigung offengelegten Testdaten werden 70% der Anrufe automatisch durch KI abgeschlossen, ohne dass ein Mensch eingreifen muss.
MarketWhisper29M her
GPT-5.5 kehrt an die Spitze im Codieren zurück, aber OpenAI wechselt Benchmarks, nachdem es gegen Opus 4.7 verloren hat
Gate News Nachricht, 27. April — SemiAnalysis, ein Unternehmen für Halbleiter- und KI-Analysen, veröffentlichte einen vergleichenden Benchmark für Code-Assistenten, darunter GPT-5.5, Claude Opus 4.7 und DeepSeek V4. Die wichtigste Erkenntnis: GPT-5.5 markiert OpenAI's erste Rückkehr an die Spitze der Coding-Modelle seit sechs Monaten, wobei SemiAnalysis-Ingenieure nun zwischen Codex und Claude Code wechseln, nachdem sie zuvor fast ausschließlich auf Claude gesetzt hatten. GPT-5.5 basiert auf einem neuen Vortrainingsansatz mit dem Codenamen "Spud" und stellt OpenAI's erste Ausweitung der Vortraining-Skala seit GPT-4.5.
In praktischen Tests zeigte sich eine klare Arbeitsteilung. Claude übernimmt neues Projekt-Planning und die anfängliche Einrichtung, während Codex besonders bei fehlerbehebungen glänzt, die viel Denkaufwand erfordern. Codex zeigt ein stärkeres Verständnis für Datenstrukturen und logisches Denken, hat jedoch Schwierigkeiten, die mehrdeutige Nutzerabsicht abzuleiten. Bei einer einzelnen Dashboard-Aufgabe replizierte Claude automatisch die Layout-Referenzseite, fabrizierte jedoch große Mengen an Daten, während Codex das Layout übersprang, aber deutlich genauere Daten lieferte.
Die Analyse deckt einen Benchmark-Manipulationsaspekt auf: In seinem Februar-Blogbeitrag forderte OpenAI die Branche auf, SWE-bench Pro als neuen Standard für Coding-Benchmarks zu übernehmen. Allerdings wechselte die Ankündigung von GPT-5.5 zu einem neuen Benchmark namens "Expert-SWE." Der Grund, in den Feinheiten versteckt, ist, dass GPT-5.5 von Opus 4.7 auf SWE-bench Pro übertroffen wurde und deutlich hinter Anthropic's unveröffentlichtem Mythos 77.8% zurückfiel.
Bezüglich Opus 4.7 veröffentlichte Anthropic eine Mortem-Analyse eine Woche nach dem Release und erkannte drei Bugs in Claude Code an, die mehrere Wochen lang von März bis April anhielten und nahezu alle Nutzer betrafen. Mehrere Ingenieure hatten zuvor eine Leistungsverschlechterung in Version 4.6 gemeldet, waren jedoch mit der Begründung abgetan worden, es handele sich um subjektive Beobachtungen. Zusätzlich erhöht der neue Tokenizer von Opus 4.7 die Token-Nutzung um bis zu 35%, was Anthropic offen zugab — effektiv eine versteckte Preiserhöhung.
DeepSeek V4 wurde als "mit der Spitze Schritt haltend, aber nicht führend" bewertet und positionierte sich als die kostengünstigste Alternative unter Closed-Source-Modellen. Die Analyse stellte außerdem fest, dass "Claude DeepSeek V4 Pro bei hochschwierigen chinesischen Schreibaufgaben weiterhin übertrifft," und kommentierte: "Claude gewann gegen das chinesische Modell in dessen eigener Sprache."
Der Artikel führt ein zentrales Konzept ein: Die Modellpreisgestaltung sollte anhand der "Kosten pro Aufgabe" statt der "Kosten pro Token" bewertet werden. Der Preis von GPT-5.5 ist doppelt so hoch wie der von GPT-5.4 input $5, output pro Million Tokens, aber es erledigt die gleichen Aufgaben mit weniger Tokens, wodurch die tatsächlichen Kosten nicht notwendigerweise höher sind. Erste SemiAnalysis-Daten zeigen, dass das Input-zu-Output-Verhältnis von Codex bei 80:1 liegt, niedriger als das von Claude Code mit 100:1.
GateNews34M her
Google DeepMind-Manager: Jede KI-Produktfirma sollte benutzerdefinierte Benchmarks entwickeln
Gate-News-Meldung, 27. April — Logan Kilpatrick, Senior-Produktmanager bei Google DeepMind und Produktleiter für Google AI Studio, sagte auf X, dass jede Firma, die KI-basierte Produkte entwickelt, eigene benutzerdefinierte Benchmarks festlegen sollte, um die Leistung von KI-Modellen zu messen. Er beschrieb dies als eine Methode, um
GateNews1Std her