📰 【Model sumber terbuka terkuat DeepSeek v4 akhirnya hadir! Model dengan 16 triliun parameter, lisensi MIT, memori tampilan teks panjang dikurangi menjadi sepertiga dari V3.2】


Menurut pemantauan Beating, versi pratinjau seri DeepSeek sumber terbuka V4, menggunakan lisensi MIT, bobot sudah tersedia di Hugging Face dan ModelScope. Seri ini mencakup dua model MoE: V4-Pro dengan total parameter 1,6T, aktivasi per token 49B (4,9 miliar); V4-Flash dengan total parameter 284B (2,84 triliun), aktivasi 13B (1,3 miliar). Kedua model mendukung konteks 1 juta token. Ada tiga peningkatan arsitektur: mekanisme perhatian campuran (kompresi perhatian jarang CSA + perhatian kompresi berat HCA) yang secara signifikan mengurangi biaya konteks panjang, di konteks 1 juta V4...
Saudara-saudara, DeepSeek kali ini kembali menggebrak! Model V4 dengan 16 triliun parameter, lisensi MIT langsung open source, memori tampilan teks panjang dikurangi menjadi sepertiga dari V3.2. Ini benar-benar revolusi teknologi, bukan proyek sampah yang hanya membesar-besarkan hype tentang koin palsu.
$FET $AGIX Koin konsep AI ini, kali ini bisa tidak memanfaatkan momentum ini untuk meluncur? Penggemar lama tahu, Soro哥 paling tidak suka yang cuma bikin janji besar, tapi jika ada terobosan teknologi nyata, harus segera ikut. Jangan tunggu institusi mengerek harga, kamu masih duduk diam di sana. 👇👇👇👇👇
FET0,67%
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan