Google bringt separate KI-Chips für Training und Inferenz auf den Markt und steigert die Performance um das 2,8-Fache

Gate News-Nachricht, 23. April — Google gab am 22. April bekannt, dass es noch in diesem Jahr separate TPU-Chips der achten Generation für Training und Inferenz veröffentlichen wird, um sein bisheriges kombiniertes Design zu ersetzen. Die Maßnahme zielt auf Workloads für KI-Agenten ab und bietet Kunden von Google Cloud eine Alternative zu der Hardware von Nvidia.

Der Trainingschip bietet bei gleichem Preis die 2,8-fache Leistung der Ironwood-TPU der siebten Generation von Google, während der Inferenzchip 80% schneller ist und 384 MB SRAM bietet, also das Dreifache im Vergleich zu Ironwood. Die Trennung der Fähigkeiten für Training und Inferenz spiegelt eine veränderte Herangehensweise wider, wie Unternehmen für unterschiedliche Rechenanforderungen optimieren.

Die Initiative wird durch eine langfristige Partnerschaft mit Broadcom und Anthropic gestützt. Anthropic plant, ab 2027 über Broadcom etwa 3,5 Gigawatt an TPU-Computing zu nutzen, wobei Broadcom bis 2031 die Chipfertigung sowie die Netzwerkkomponenten übernimmt. Anthropic, das KI-Startup hinter Claude, hat zuletzt einen annualisierten Umsatz gesehen, der $30 Milliarden überstieg. In der Zwischenzeit erweitern auch Apple, Microsoft, Meta und Amazon ihre Initiativen für maßgeschneiderte KI-Chips, um die Abhängigkeit von Nvidia zu verringern, das weiterhin Marktführer ist.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Meta Platforms plant am 20. Mai eine Reduzierung der Belegschaft um 10%, betroffen sind etwa 8.000 Stellen

Gate News-Meldung, 24. April — Meta Platforms plant, seine Belegschaft um etwa 10% zu reduzieren, wodurch rund 8.000 Stellen betroffen sind, am 20. Mai. Die Entlassungen sollen die operative Effizienz verbessern und zugleich Investitionen in künstliche Intelligenz erhöhen. Die geplante Umstrukturierung spiegelt die

GateNews44M her

Das Trump-Regime hat einen Plan zur Bekämpfung der KI-Extraktion veröffentlicht und wirft chinesischen Unternehmen vor, systematisch die Modellfähigkeiten zu stehlen.

Das Büro für Wissenschafts- und Technologiepolitik des Weißen Hauses (OSTP) veröffentlichte am 23. April eine offizielle Erklärung von Michael J. Kratsios, Assistant des Präsidenten, in der erklärt wird, dass die Trump-Regierung über Informationen verfügt, die zeigen, dass ausländische Akteure (hauptsächlich mit Sitz in China) gezielt gegen große US-amerikanische KI-Unternehmen vorgehen, indem sie systematisch die Fähigkeiten US-amerikanischer KI-Modelle über „zehntausende von Agentenkonten“ und durch Jailbreak-Technologiesysteme extrahieren, und gleichzeitig vier Gegenmaßnahmen bekanntgegeben werden.

MarketWhisper1Std her

DeepSeek veröffentlicht V4 als Open-Source-Vorschauversion, Technikbewertung 3206 übertrifft GPT-5.4

DeepSeek hat am 24. April offiziell die V4-Vorschauversion-Reihe veröffentlicht. Mit einer Open-Source-Lizenz unter der MIT-Lizenz ist das Modellgewicht gleichzeitig auf Hugging Face und ModelScope verfügbar. Laut dem DeepSeek-V4-Technikbericht erzielte V4-Pro-Max (der Modus mit der höchsten Inferenzstärke) 3206 Punkte im Codeforces-Benchmark und übertraf damit GPT-5.4.

MarketWhisper1Std her

Cambricon schließt die Day-0-Anpassung von DeepSeek-V4 ab und setzt einen Meilenstein für Chinas KI-Chip-Ökosystem

Gate News-Mitteilung, 24. April — Cambricon gab heute bekannt, dass es die Day-0-Anpassung von DeepSeek-V4 abgeschlossen hat, dem neuesten Large-Language-Model von DeepSeek, mithilfe seiner proprietären NeuWare-Software-Ökosystem- und vLLM-Framework. Der Anpassungscode wurde gleichzeitig Open Source gestellt und markiert die

GateNews1Std her

Tencent Open-Source Hy3 Vorschauversion, Code-Benchmark-Tests um 40% besser als die vorherige Version

Tencent hat am 23. April auf den Plattformen GitHub, Hugging Face und ModelScope offiziell die Open-Source-Vorschauversion des Hy3 Large Language Models veröffentlicht und stellt gleichzeitig über Tencent Cloud einen kostenpflichtigen API-Dienst bereit. Laut Decrypt, das am 24. April berichtete, wurde die Hy3-Vorschauversion ab Anfang/Mitte Januar mit dem Training gestartet und bis zum Veröffentlichungstermin waren es weniger als drei Monate.

MarketWhisper1Std her

FTX-Portfolioinvestitionen im Wert von 158 Billionen Won, wenn sie nicht bankrott gegangen wäre

FTX, die zentrale Krypto-Börse, die im November 2022 aufgrund von Liquiditätsengpässen und Kapitalabflüssen Insolvenzschutz nach Chapter 11 beantragt hatte, hätte nach einer Analyse, die von Park zitiert wurde, Investitionen in Höhe von ungefähr 158.796 Billionen Won gehalten, wenn sie nicht zusammengebrochen wäre.

CryptoFrontier1Std her
Kommentieren
0/400
Keine Kommentare