Anthropic identifiziert drei Änderungen auf Produktebene hinter dem Qualitätsrückgang von Claude Code, nicht ein Modellproblem

Gate News-Meldung, 23. April — Das Engineering-Team von Anthropic bestätigte, dass die von Nutzern über den vergangenen Monat gemeldete Qualitätsverschlechterung von Claude Code auf drei unabhängige Änderungen auf Produktebene zurückzuführen ist, nicht auf Probleme mit der API oder dem zugrunde liegenden Modell. Die drei Probleme wurden jeweils am 7. April, am 10. April und am 20. April behoben, wobei die finale Version jetzt v2.1.116 ist.

Die erste Änderung erfolgte am 4. März, als das Team die standardmäßige Stufe des Rechenaufwands für Claude Code von „high“ auf „medium“ reduzierte, um gelegentliche extreme Latenzspitzen in Opus 4.6 bei hoher Rechenintensität zu adressieren. Nach weitreichender Kritik von Nutzern an der verminderten Leistung setzte das Team die Änderung am 7. April zurück. Der aktuelle Standard ist nun „xhigh“ für Opus 4.7 und „high“ für andere Modelle.

Das zweite Problem war ein Bug, der am 26. März eingeführt wurde. Das System war so ausgelegt, alte Aufzeichnungen zum Rechenaufwand nach Konversationsinaktivität zu bereinigen, die eine Stunde überschritt, um die Kosten für die Sitzungswiederherstellung zu reduzieren. Ein Fehler in der Implementierung führte jedoch dazu, dass das Bereinigen bei jeder nachfolgenden Antwort wiederholt ausgeführt wurde, statt nur einmal, wodurch das Modell schrittweise den vorherigen Kontext zum Rechenaufwand verlor. Dies zeigte sich als zunehmende Vergesslichkeit, wiederholte Operationen und abnorme Tool-Aufrufe. Der Bug führte außerdem zu Cache-Misses bei jeder Anfrage, wodurch der Verbrauch von Nutzerkontingenten beschleunigt wurde. Zwei unbeteiligte interne Experimente verdeckten die Bedingungen für die Reproduktion und verlängerten den Debugging-Prozess auf über eine Woche. Nachdem der Bug am 10. April behoben worden war, überprüfte das Team problematischen Code mit Opus 4.7 und stellte fest, dass Opus 4.7 den Bug erkennen konnte, Opus 4.6 jedoch nicht.

Die dritte Änderung wurde am 16. April zusammen mit Opus 4.7 eingeführt. Das Team ergänzte Anweisungen in den System-Prompt, um redundante Ausgaben zu reduzieren. Interne Tests über mehrere Wochen zeigten keine Regression, aber nach dem Launch verschlechterte die Interaktion mit anderen Prompts die Codequalität. Eine erweiterte Evaluierung ergab einen 3%-Leistungsabfall in sowohl Opus 4.6 als auch 4.7, was zu einem Rollback am 20. April führte.

Diese drei Änderungen betrafen unterschiedliche Nutzergruppen zu unterschiedlichen Zeiten, und ihre kombinierte Wirkung führte zu einem weitverbreiteten und uneinheitlichen Qualitätsrückgang, was die Diagnose erschwerte. Anthropic erklärte, dass man nun mehr interne Mitarbeitende benötigen werde, um wie Nutzer dieselbe öffentliche Build-Version zu verwenden, vollständige Model-Evaluations-Suites für jede Änderung am System-Prompt auszuführen und gestufte Rollout-Zeiträume zu implementieren. Als Ausgleich hat Anthropic die Nutzungskontingente für alle Abonnenten zurückgesetzt.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Meta Platforms plant am 20. Mai eine Reduzierung der Belegschaft um 10%, betroffen sind etwa 8.000 Stellen

Gate News-Meldung, 24. April — Meta Platforms plant, seine Belegschaft um etwa 10% zu reduzieren, wodurch rund 8.000 Stellen betroffen sind, am 20. Mai. Die Entlassungen sollen die operative Effizienz verbessern und zugleich Investitionen in künstliche Intelligenz erhöhen. Die geplante Umstrukturierung spiegelt die

GateNews29M her

Das Trump-Regime hat einen Plan zur Bekämpfung der KI-Extraktion veröffentlicht und wirft chinesischen Unternehmen vor, systematisch die Modellfähigkeiten zu stehlen.

Das Büro für Wissenschafts- und Technologiepolitik des Weißen Hauses (OSTP) veröffentlichte am 23. April eine offizielle Erklärung von Michael J. Kratsios, Assistant des Präsidenten, in der erklärt wird, dass die Trump-Regierung über Informationen verfügt, die zeigen, dass ausländische Akteure (hauptsächlich mit Sitz in China) gezielt gegen große US-amerikanische KI-Unternehmen vorgehen, indem sie systematisch die Fähigkeiten US-amerikanischer KI-Modelle über „zehntausende von Agentenkonten“ und durch Jailbreak-Technologiesysteme extrahieren, und gleichzeitig vier Gegenmaßnahmen bekanntgegeben werden.

MarketWhisper51M her

DeepSeek veröffentlicht V4 als Open-Source-Vorschauversion, Technikbewertung 3206 übertrifft GPT-5.4

DeepSeek hat am 24. April offiziell die V4-Vorschauversion-Reihe veröffentlicht. Mit einer Open-Source-Lizenz unter der MIT-Lizenz ist das Modellgewicht gleichzeitig auf Hugging Face und ModelScope verfügbar. Laut dem DeepSeek-V4-Technikbericht erzielte V4-Pro-Max (der Modus mit der höchsten Inferenzstärke) 3206 Punkte im Codeforces-Benchmark und übertraf damit GPT-5.4.

MarketWhisper1Std her

Cambricon schließt die Day-0-Anpassung von DeepSeek-V4 ab und setzt einen Meilenstein für Chinas KI-Chip-Ökosystem

Gate News-Mitteilung, 24. April — Cambricon gab heute bekannt, dass es die Day-0-Anpassung von DeepSeek-V4 abgeschlossen hat, dem neuesten Large-Language-Model von DeepSeek, mithilfe seiner proprietären NeuWare-Software-Ökosystem- und vLLM-Framework. Der Anpassungscode wurde gleichzeitig Open Source gestellt und markiert die

GateNews1Std her

Tencent Open-Source Hy3 Vorschauversion, Code-Benchmark-Tests um 40% besser als die vorherige Version

Tencent hat am 23. April auf den Plattformen GitHub, Hugging Face und ModelScope offiziell die Open-Source-Vorschauversion des Hy3 Large Language Models veröffentlicht und stellt gleichzeitig über Tencent Cloud einen kostenpflichtigen API-Dienst bereit. Laut Decrypt, das am 24. April berichtete, wurde die Hy3-Vorschauversion ab Anfang/Mitte Januar mit dem Training gestartet und bis zum Veröffentlichungstermin waren es weniger als drei Monate.

MarketWhisper1Std her

FTX-Portfolioinvestitionen im Wert von 158 Billionen Won, wenn sie nicht bankrott gegangen wäre

FTX, die zentrale Krypto-Börse, die im November 2022 aufgrund von Liquiditätsengpässen und Kapitalabflüssen Insolvenzschutz nach Chapter 11 beantragt hatte, hätte nach einer Analyse, die von Park zitiert wurde, Investitionen in Höhe von ungefähr 158.796 Billionen Won gehalten, wenn sie nicht zusammengebrochen wäre.

CryptoFrontier1Std her
Kommentieren
0/400
Keine Kommentare