Das chinesische KI-Labor DeepSeek steht Berichten zufolge in Gesprächen, um seine erste Finanzierungsrunde aufzunehmen – bei einer Bewertung von rund 45 Milliarden US-Dollar, wie TechCrunch berichtet. Die Bewertung stellt einen deutlichen Anstieg dar gegenüber einer geschätzten Bewertung von 20 Milliarden US-Dollar nur wenige Wochen zuvor, nachdem die Aufmerksamkeit auf die KI-Modelle des Unternehmens gelenkt wurde – unter anderem wegen ihrer niedrigeren Trainingskosten. Gründer Liang Wenfeng kontrolliert nahezu 90% des Unternehmens.
DeepSeek entschied sich, eine Finanzierung zu suchen, nachdem Wettbewerber versucht hatten, Forscher abzuwerben, indem sie Firmenanteile als Anreiz anboten. Der China Integrated Circuit Industry Investment Fund könnte die Finanzierungsrunde anführen, während Tencent und Alibaba Berichten zufolge ebenfalls Gespräche führen, um sich zu beteiligen.
DeepSeek zufolge erbringt das Modell V4 in Benchmark-Tests eine Leistung auf Augenhöhe mit den führenden Modellen von OpenAI und Anthropic. Der Wettbewerbsvorteil erstreckt sich auch auf die Preisgestaltung: V4-Pro kostet 1,74 US-Dollar pro Million Input-Tokens, während V4-Flash rund 0,14 US-Dollar pro Million Input-Tokens kostet – deutlich unter den Preisen für vergleichbare US-Modelle.
Die niedrigere Kostenstruktur ergibt sich aus der compute-effizienten Architektur von DeepSeek, darunter ein Mixture-of-Experts-(MoE)-Design, bei dem für jede Aufgabe nur ein Teil des Modells aktiviert wird, wodurch die Rechenleistung während der Inferenz reduziert wird. Laut DeepSeek nutzt V4-Pro 27% der Rechenleistung und 10% des Speicherbedarfs von V3.2.
Die Finanzierungsrunde von DeepSeek findet statt, während China daran arbeitet, eine stärker selbstständige KI-Infrastruktur aufzubauen – als Reaktion auf US-Exportkontrollen für fortschrittliche Chips. V4 ist das erste Modell von DeepSeek, das für chinesische Chips wie die Ascend-Serie von Huawei abgestimmt ist, wobei der technische Bericht des Unternehmens zeigt, dass chinesische Chips zwar die Inferenz übernehmen, das Training aber möglicherweise weiterhin vor allem auf Nvidia-Hardware angewiesen ist.
DeepSeek veröffentlicht zudem Open-Weight-Modelle – trainierte Parameter, die andere nutzen, feinjustieren und einsetzen können – und erweitert damit die KI-Entwicklung über die Dominanz der USA hinaus. Diese Strategie setzt auf algorithmische Effizienz statt auf exklusiven Zugang zu der fortschrittlichsten US-Hardware, obwohl Chinas KI-Vorstoß weiterhin teilweise von Nvidia-Hardware abhängt.
Verwandte Artikel
Huawei und Cambricon integrieren DeepSeek V4 in heimische Chips; geplant sind 750.000 Ascend 950PR-Einheiten für 2026
Microsoft könnte sein Ziel für 2030, CO₂-freien Strom bereitzustellen, verschieben, da der Ausbau von KI-Rechenzentren den Energiebedarf treibt
Google DeepMind trainiert KI für Eve Online und übernimmt eine Minderheitsbeteiligung an Fenris Creations
Apple erhöht die Ausgaben für Forschung und Entwicklung auf den höchsten Stand seit 30 Jahren im Zuge einer Offensive für Investitionen in KI
Anthropic unterzeichnet eine Vereinbarung mit SpaceX über den Colossus 1 für die KI-Berechnung
CITIC: KI-Rechenleistung treibt US-Stromversorgung-Umstrukturierung voran, Self-Supply-Markt öffnet sich