Gate News, 25 April — DeepSeek merilis versi pratinjau V4-Pro dan V4-Flash pada 24 April, dua model open-weight dengan jendela konteks satu juta token. V4-Pro memiliki total 1,6 triliun parameter tetapi hanya mengaktifkan 49 miliar per pass inferensi menggunakan arsitektur Mixture-of-Experts. V4-Flash memiliki total 284 miliar parameter dengan 13 miliar yang aktif.
Harga secara signifikan lebih rendah dibanding kompetitor: V4-Pro berharga $1,74 per satu juta token input dan $3,48 per satu juta token output—sekitar 98% lebih rendah daripada GPT-5.5 Pro milik OpenAI ($30 input, $180 output) serta sekitar seperduapuluh biaya Claude Opus 4.7. V4-Flash dibanderol $0,14 untuk input dan $0,28 untuk output per satu juta token. Kedua model bersifat open-source di bawah lisensi MIT dan bisa dijalankan secara lokal secara gratis.
DeepSeek meraih peningkatan efisiensi melalui dua mekanisme perhatian baru: Compressed Sparse Attention dan Heavily Compressed Attention, yang menurunkan biaya komputasi menjadi 27% dari pendahulu V4-Pro (V3.2) dan 10% untuk V4-Flash. Perusahaan melatih V4 sebagian dengan chip Huawei Ascend, menghindari pembatasan ekspor AS untuk prosesor Nvidia yang canggih. DeepSeek menyatakan bahwa ketika 950 supernode baru hadir pada paruh akhir tahun 2026, harga akan turun lebih lanjut.
Pada benchmark performa, V4-Pro-Max menempati peringkat pertama pada Codeforces untuk pemrograman kompetitif (3,206 poin, berada di sekitar peringkat ke-23 di antara kontestan manusia) dan memperoleh 90,2% pada soal matematika Apex Shortlist dibanding Claude Opus 4.6 yang 85,9%. Namun, model ini tertinggal pada benchmark multitasking: MMLU-Pro (87,5% vs 91,0% milik Gemini-3.1-Pro) dan Humanity’s Last Exam (37,7% vs 44,4%). Pada tugas konteks panjang, V4-Pro memimpin model open-source tetapi kalah dari Claude Opus 4.6 pada uji retrieval MRCR.
V4-Pro memperkenalkan “interleaved thinking,” yang memungkinkan alur kerja agen mempertahankan konteks penalaran di seluruh banyak panggilan alat tanpa membuangnya di antara langkah. Kedua model mendukung integrasi untuk coding dengan Claude Code dan OpenCode. Menurut survei pengembang DeepSeek terhadap 85 pengguna, 52% mengatakan V4-Pro sudah siap sebagai agen coding default mereka, dengan 39% cenderung mengadopsinya. Endpoint lama deepseek-chat dan deepseek-reasoner akan dihentikan pada 24 Juli 2026.
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke
Penafian.
Artikel Terkait
DeepSeek V4 Pro di Ollama Cloud: Claude Code terhubung satu klik
Berdasarkan cuitan Ollama, DeepSeek V4 Pro dirilis pada 4/24, sudah masuk ke direktori Ollama dalam mode cloud, dan hanya dengan satu perintah saja dapat memanggil alat seperti Claude Code, Hermes, OpenClaw, OpenCode, Codex, dll. V4 Pro1.6T parameter, 1M context, Mixture-of-Experts; penalaran cloud tidak mengunduh bobot ke lokal. Jika ingin menjalankan secara lokal, perlu mengambil bobot sendiri dan menjalankannya dengan INT4/GGUF serta GPU multi-kartu. Pengujian kecepatan awal dipengaruhi oleh beban pada sisi cloud; kecepatan biasanya sekitar 30 tok/s, dengan puncak 1,1 tok/s; disarankan menggunakan prototipe cloud, dan setelah siap produksi massal barulah menjalankan inferensi sendiri atau menggunakan API komersial.
ChainNewsAbmedia4menit yang lalu
DeepSeek Memotong Harga V4-Pro hingga 75%, Memangkas Biaya Cache API menjadi Sepersepuluh
Berita Gate, 27 April — DeepSeek mengumumkan diskon 75% untuk model V4-Pro terbarunya bagi pengembang dan menurunkan harga cache input yang berhasil di seluruh jajaran layanannya melalui API menjadi sepersepuluh dari level sebelumnya.
Model V4, yang dirilis pada 25 April dalam versi Pro dan Flash, telah dioptimalkan untuk prosesor Ascend milik Huawei
GateNews7menit yang lalu
Coachella beralih ke AI DeepMind milik Google untuk membayangkan ulang konser di luar panggung
Coachella telah bermitra dengan Google DeepMind untuk menguji alat AI baru yang mengubah cara pertunjukan musik live diciptakan dan dialami.
Ringkasan
Coachella telah menguji alat AI dengan Google DeepMind untuk mengubah pertunjukan live menjadi lingkungan digital interaktif.
Tiga prototipe telah dibangun,
Cryptonews13menit yang lalu
Guo Mingchi: OpenAI ingin membuat ponsel AI Agent, MediaTek, Qualcomm, dan Luxshare Precision menjadi rantai pasokan kunci
Guo Mingchi mengklaim bahwa OpenAI sedang bekerja sama dengan MediaTek, Qualcomm, dan Luxshare Precision untuk mengembangkan ponsel AI Agent, dengan produksi massal diperkirakan pada 2028. Ponsel baru akan berpusat pada penyelesaian tugas; AI agen akan memahami dan menjalankan kebutuhan, menggabungkan komputasi di cloud dan di perangkat, dengan fokus pada sensor dan pemahaman konteks. Daftar spesifikasi dan rantai pasokan diperkirakan akan ditetapkan pada 2026–2027; jika rencana ini terwujud, atau akan membawa siklus ganti ponsel baru untuk pasar kelas atas, Luxshare berpeluang menjadi penerima manfaat utama.
ChainNewsAbmedia23menit yang lalu
IEA: Belanja infrastruktur AI telah melampaui investasi produksi minyak dan gas, dan pada 2026 diperkirakan akan meningkat lagi 75%
Menurut analisis dan data pasar yang dirilis oleh Badan Energi Internasional (IEA) pada 26 April, total belanja modal gabungan dari lima perusahaan teknologi teratas pada tahun 2025 telah melampaui 400 miliar dolar AS. Dana tersebut terutama digunakan untuk pembangunan infrastruktur AI, dengan skalanya kini telah melampaui besarnya investasi tahunan global untuk produksi minyak dan gas. IEA memperkirakan bahwa belanja modal terkait pada tahun 2026 dapat terus meningkat sebesar 75%.
MarketWhisper55menit yang lalu
Senator Bernie Sanders Mengeluarkan Peringatan tentang Ancaman Eksistensial AI
Sanders menekankan bahwa meskipun sebagian besar ilmuwan AI mengakui kemungkinan AI lepas dari kontrol dan menjadi bahaya bagi keberadaan kita, tidak ada langkah besar yang telah diambil untuk mencegahnya. “Kita harus memastikan bahwa AI memberi manfaat bagi umat manusia, bukan menyakiti kita,” katanya.
Poin Penting:
Bernie Sanders
Coinpedia1jam yang lalu