DeepSeek senkt die Preise für V4-Pro um 75% und kappen die API-Cache-Kosten auf ein Zehntel

Gate News-Meldung, 27. April — DeepSeek hat für sein neues V4-Pro-Modell eine 75%ige Ermäßigung für Entwickler angekündigt und die Preise für Input-Cache-Treffer über seine gesamte API-Produktlinie auf ein Zehntel der bisherigen Werte gesenkt.

Das V4-Modell, das am 25. April in den Pro- und Flash-Versionen veröffentlicht wurde, wurde für die Ascend-Prozessoren von Huawei optimiert. DeepSeek sagte, V4-Pro übertreffe andere Open-Source-Modelle bei Benchmarks zum Weltwissen und liege auf dem zweiten Platz, nur hinter Googles Closed-Source Gemini-Pro-3.1. Die V4-Familie ist speziell für KI-Agenten entwickelt, die komplexe Aufgaben bewältigen, die über die Fähigkeiten von Chatbots hinausgehen.

Die V4-Pro-API-Kosten liegen bereits unter denen großer westlicher Wettbewerber: Sie sind mit $3.48 pro Million Output-Tokens bepreist, verglichen mit $30 für OpenAI’s GPT-4.5. Die Preise für V4-Flash belaufen sich auf $0.14 pro Million Input-Tokens und $0.28 pro Million Output-Tokens und könnten damit kosteneffiziente Anwendungen ermöglichen, wie das Durchsehen kompletter Codebasen oder regulatorischer Dokumente in einzelnen Anfragen.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Steigert KI die Produktivität oder senkt sie die Kosten? Das brachte keine hundertfache Effizienz mit sich, um auch hundertfache Umsätze zu erzielen—aber in Silicon Valley traut sich niemand, das Stoppschild zu zeigen.

Fünf-Yuan-Capital-Partner Meng Xing veröffentlichte in letzter Zeit einen Bericht über seine Silicon-Valley-Recherchen und stellte eine Einschätzung auf, die sogar dazu führte, dass er seinen Notizblock‑Gewohnheiten neu nachdenken muss: Silicon Valley befindet sich gerade in einer Phase, in der selbst Leute, die Wellen machen wollen, von den Wellen überrollt werden. Das Iterationstempo von KI ist bereits von „monatlich“ auf „wöchentlich“ übergegangen, sogar Silicon Valley selbst kommt nicht mehr mit sich selbst mit. Wenn KI die Produktivität eines Teams um das Fünffache vervielfacht, kannst du 80 % der Arbeitskräfte reduzieren, um die ursprüngliche Output-Menge aufrechtzuerhalten, oder du kannst die Mitarbeiterzahl beibehalten und fünfmal so viel erledigen. Mengan Xings Beobachtung aus dieser Silicon-Valley-Reise entspricht im Grunde dem ersten Entwurf der Antwort vor Ort: Wenn 100‑Fach‑Effizienz nicht zu 100‑Fach‑Umsatz führt, wenn der Token‑Budgetrahmen sich den Personalkosten annähert, wenn die Dampfmaschine noch nicht schneller läuft als die Kutsche, aber niemand es wagt, anzuhalten, dann wählt Silicon Valley derzeit den Weg „erstmal die Geschwindigkeit hochzudrehen“. Aber ob diese Strecke am Ende eher zur „Ausbau‑Kapazität“ oder zur „Kostenkompression“ führt, steht derzeit nicht fest. YC vom führenden Indikator zu einem nachlaufenden Indikator Meng Xing dieses Jahr

ChainNewsAbmedia42M her

YC-Partner teilen, wie man mit KI von Grund auf ein Unternehmen aufbaut, und dass Startups KI als Betriebssystem und nicht als Werkzeug betrachten sollten

Die Auswirkungen von KI auf Startups sind nicht mehr nur, dass Softwareentwickler Code schneller schreiben, Prozesse im Kundenservice automatisieren oder einem bestehenden Produkt noch ein Copilot hinzufügen können. Kürzlich hat YC-Partnerin Diana darauf hingewiesen, dass die eigentliche Veränderung darin besteht, dass KI gerade dabei ist, neu zu schreiben, „wie ein Unternehmen von Grund auf aufgebaut werden sollte“. Für frühe Gründer sollte KI nicht nur ein Effizienz-Tool sein, das das Unternehmen gelegentlich nutzt, sondern sollte ab dem ersten Tag so entworfen werden, dass sie das Betriebssystem des gesamten Unternehmens bildet. Die Produktivitäts-Perspektive ist überholt, KI verändert den Design-Startpunkt von Unternehmen Diana meint, wenn der Markt derzeit über KI spricht, verbleibe er immer noch viel zu oft im Rahmen „Produktivitätssteigerung“, zum Beispiel dass Ingenieure schneller programmieren können, das Team mehr Prozesse automatisieren kann und das Unternehmen mehr Funktionen herausbringen kann. Diese Darstellung unterschätzt jedoch die strukturellen Veränderungen, die KI tatsächlich mit sich bringt. Sie weist darauf hin, dass die richtige Kombination aus Menschen und KI 工

ChainNewsAbmedia52M her

Cursor AI-Agent hat einen Fehler! Eine einzige Codezeile leert in 9 Sekunden die Unternehmensdatenbank, die Sicherheitsprüfung wird zur leeren Rede

PocketOS-Gründer Jer Crane gab an, dass der Cursor AI-Agent Wartungsarbeiten in einer Testumgebung eigenständig ausführte, wobei er einen API-Token missbrauchte, der für das Hinzufügen/Entfernen benutzerdefinierter Domains gedacht ist, und einen Löschbefehl gegen die GraphQL-API von Railway absetzte. Innerhalb von 9 Sekunden wurden Daten und Snapshot(s) im selben Bereich vollständig zerstört; die aktuellste Wiederherstellung war bis auf drei Monate zuvor möglich. Der Agent räumte Verstöße gegen Regeln für nicht rückgängig machbare Vorgänge ein, hatte die technischen Dokumente nicht gelesen und die Umgebungsisolation nicht verifiziert; Geschädigte waren Kunden aus der Mietwagenbranche. Buchungen und Daten verschwanden vollständig, und die Abstimmungs-/Abgleichsarbeiten in der Engineering-Abteilung dauerten lange. Crane schlug fünf Reformen vor: manuelle Bestätigung, granularere API-Berechtigungen, Backup und Trennung der Hauptdaten, öffentliche SLAs und eine unterliegende erzwungene Mechanismus- (Force-) Ebene.

ChainNewsAbmedia54M her

DeepSeek V4 Pro 上 Ollama Cloud:Claude Code 一鍵串接

Laut einem Tweet von Ollama wurde DeepSeek V4 Pro am 4/24 veröffentlicht, wurde in den Ollama-Verzeichnisbaum im Cloud-Modus aufgenommen und kann nur mit einem einzigen Befehlszeilenkommando auf Tools wie Claude Code, Hermes, OpenClaw, OpenCode, Codex usw. zugreifen. V4 Pro1.6T Parameter, 1M context, Mixture-of-Experts; Cloud-Inferenz lädt keine lokalen Gewichte herunter. Wenn du lokal ausführen willst, musst du die Gewichte selbst beziehen und mit INT4/GGUF sowie Multi-GPU ausführen. Frühe Geschwindigkeitsmessungen wurden vom Cloud-Load beeinflusst; im Normalbetrieb etwa 30 tok/s, im Peak 1.1 tok/s; empfohlen wird, mit dem Cloud-Prototyp zu testen, und für die Serienproduktion dann selbst zu inferieren oder eine kommerzielle API zu verwenden.

ChainNewsAbmedia1Std her

Coachella wendet sich an Googles DeepMind-KI, um Konzerte über die Bühne hinaus neu zu gestalten

Coachella hat eine Partnerschaft mit Google DeepMind geschlossen, um neue KI-Tools zu testen, die verändern, wie Live-Musikaufführungen erstellt und erlebt werden. Zusammenfassung Coachella hat mit Google DeepMind KI-Tools getestet, um Live-Auftritte in interaktive digitale Umgebungen zu verwandeln. Es wurden drei Prototypen entwickelt,

Cryptonews1Std her
Kommentieren
0/400
Keine Kommentare