DeepSeek V4 запускається з вікном контексту 1M; чипи Huawei Ascend і Cambricon досягають повної сумісності

Повідомлення Gate News, 24 квітня — DeepSeek V4-Pro і DeepSeek V4-Flash були офіційно випущені та відкрито передані в open-source 24 квітня, причому довжина контекстного опрацювання суттєво розширена з 128K до 1M, що відповідає майже 10-кратному зростанню місткості. Huawei Computing оголосила, що її продукти Ascend supernode повністю підтримують моделі серії DeepSeek V4 завдяки тісній співпраці між технологіями чипа та моделі.

Ascend 950 забезпечує розгортання інференсу моделей DeepSeek V4 із високою пропускною здатністю та низькою затримкою завдяки технікам злитого ядра та багатопотокової паралельності, щоб зменшити накладні витрати на обчислення Attention і доступ до пам’яті. Для DeepSeek V4-Pro із входом 8K Ascend 950 досягає приблизно 20ms TPOT із 4,700 TPS пропускної здатності Decode на одну карту; для DeepSeek V4-Flash за входу до 8K він досягає приблизно 10ms TPOT із пропускною здатністю 1,600 TPS. Серія супервузлів Ascend A3 також досягає повної сумісності: надано опорні реалізації для тренування для швидкого фінастройнінгу. На основі супервузла Ascend A3 на 64 карти з великим режимом EP, DeepSeek V4-Flash досягає понад 2,000 TPS пропускної здатності Decode на одну карту в сценаріях вхід-вихід 8K/1K за допомогою рушія інференсу vLLM. Повні лінійки продуктів Huawei Ascend A2, A3 і 950 підтримують як DeepSeek V4-Flash, так і V4-Pro.

Huawei Cloud оголосила про сумісність першою серед конкурентів із DeepSeek V4, надаючи розробникам сервіси API token в один клік через свою платформу MaaS. Huawei Cloud оптимізувала можливості системного рівня, рівня операторів і рівня кластерів, щоб забезпечити швидку адаптацію моделей та високопродуктивне розгортання. Підприємства, зокрема Kingsoft WPS і 360, уже інтегрували нову модель DeepSeek через Huawei Cloud.

Cambricon також оголосила про сумісність Day 0 з DeepSeek V4-Flash і V4-Pro на основі фреймворка інференсу vLLM, при цьому код адаптації відкрито передано в open-source для спільноти GitHub. Раніше Cambricon досягла адаптації першою серед конкурентів, коли DeepSeek V3.2 було випущено торік; тоді було проведено глибоку оптимізацію продуктивності у співпраці програмного та апаратного забезпечення для моделей серії DeepSeek.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

GPT-5.5 повертається на передній край у кодуванні, але OpenAI змінює бенчмарки після поразки від Opus 4.7

Повідомлення Gate News, 27 квітня — SemiAnalysis, компанія з аналізу напівпровідників та ШІ, опублікувала порівняльний бенчмарк асистентів для кодування, зокрема GPT-5.5, Claude Opus 4.7 і DeepSeek V4. Ключовий висновок: GPT-5.5 означає перше повернення OpenAI на передній край у моделях для кодування за шість місяців, причому інженери SemiAnalysis тепер чергують між Codex і Claude Code після того, як раніше майже виключно покладалися на Claude. GPT-5.5 створено на основі нового підходу до попереднього навчання з кодовою назвою "Spud" і є першим розширенням масштабу попереднього навчання OpenAI з моменту GPT-4.5. У практичному тестуванні чітко проявився розподіл ролей. Claude береться за планування нових проєктів та початкове налаштування, тоді як Codex найкраще справляється з виправленнями багів, що потребують інтенсивного осмислення. Codex демонструє сильніше розуміння структур даних і логічного міркування, але має труднощі з тим, щоб вгадувати неоднозначні наміри користувача. В одній задачі на єдиній панелі керування Claude автоматично відтворив макет сторінки-зразка, але сфабрикував великі обсяги даних, тоді як Codex пропустив макет, зате видав значно точніші дані. Аналіз виявляє деталь маніпуляції бенчмарком: у лютневому блозі OpenAI закликав індустрію перейти на SWE-bench Pro як новий стандарт для бенчмарків кодування. Однак у повідомленні про GPT-5.5 перехід здійснили на новий бенчмарк під назвою "Expert-SWE." Причина, захована в дрібному шрифті, полягає в тому, що GPT-5.5 було випереджено Opus 4.7 на SWE-bench Pro і він суттєво відстав від неопублікованого Mythos 77.8% від Anthropic. Щодо Opus 4.7: Anthropic опублікувала постмортем-аналіз через тиждень після релізу, визнавши три баги в Claude Code, які зберігалися протягом кількох тижнів з березня по квітень, впливаючи майже на всіх користувачів. Раніше кілька інженерів повідомляли про погіршення продуктивності в версії 4.6, але їх відхилили, назвавши суб’єктивними спостереженнями. Крім того, новий токенізатор у Opus 4.7 збільшує використання токенів до 35%, що Anthropic прямо визнав — по суті, це приховане підвищення ціни. DeepSeek V4 оцінили як "дотримання темпу з переднім краєм, але без лідерства," позиціонуючи його як найдешевшу альтернативу серед моделей із закритим кодом. Аналіз також зазначив, що "Claude продовжує випереджати DeepSeek V4 Pro у завданнях із високою складністю китайського письма," коментуючи, що "Claude переміг китайську модель у її власній мові." У статті вводиться ключова ідея: ціноутворення моделей слід оцінювати за "вартістю за задачу" замість "вартості за токен." Ціна GPT-5.5 удвічі вища за ціну GPT-5.4 input $5, output per million tokens, але він виконує ті самі завдання, використовуючи менше токенів, тож фактична вартість не обов’язково вища. Початкові дані SemiAnalysis показують, що співвідношення вхідних і вихідних даних у Codex становить 80:1, що нижче, ніж у Claude Code — 100:1.

GateNews2хв. тому

Керівник Google DeepMind: кожна компанія з продуктами на основі ШІ повинна створювати кастомні бенчмарки

Повідомлення Gate News, 27 квітня — Логан Кілпатрік, старший менеджер з продуктів у Google DeepMind і керівник продукту для Google AI Studio, заявив у X, що кожна компанія, яка створює продукти на основі ШІ, має встановити власні кастомні бенчмарки для вимірювання продуктивності моделей ШІ. Він описав це як метод, за допомогою якого

GateNews1год тому

MediaTek отримала великий контракт від Google на 8-е покоління TPU! ASIC-бродіння спричиняє вигоду для трьох ешелонів концептуальних акцій

MediaTek уже увійшла в ланцюг постачання тренувальних чипів Google 8-го покоління TPU, відповідає за дизайн I/O Die та використовує TSMC N3P і пакування CoWoS-S, що демонструє її підйом до рівня висококласного проєктування AI ASIC. Очікується, що цього року виручка від ASIC перевищить 1 мільярд доларів США, а обсяг відвантажень TPU до 2027 року має зрости до десяти мільйонів штук; постачальники з Тайваню, зокрема King Yuan Electronics, Primetest і Hon Hai Group, також виграють, і ринок поступово переходить до майбутнього розподілу праці та співпраці чиплетів і гетерогенної інтеграції.

ChainNewsAbmedia1год тому

RE:AI Singtel співпрацює з Mistral AI для розвитку ШІ-інфраструктури в Сінгапурі

Повідомлення Gate News, 27 квітня — Singtel Group оголосила, що RE:AI, її підрозділ цифрової інфраструктури в Сінгапурі, співпрацює з Mistral AI, щоб підтримувати можливості ШІ для галузей у Сінгапурі. Партнерство зосередиться на спільній розробці ШІ-інфраструктури та рішень для фінансов

GateNews1год тому

YZi Labs Хе Ї інвестує в китайську компанію великомовної моделі ШІ

Повідомлення Gate News, 27 квітня — Хе Ї разом із сімейним офісом Чанпенґ Чжао YZi Labs інвестували в китайську компанію великомовної моделі для штучного інтелекту; про це вона повідомила під час закритого зібрання KOL у рамках Hong Kong Web3 Carnival. Конкретну назву інвестованої компанії не розкрито

GateNews1год тому

OpenAI співпрацює з MediaTek і Qualcomm для розробки AI-процесора для смартфонів, Foxconn Connector розпочне виробництво у 2028 році

Повідомлення Gate News, 27 квітня — OpenAI співпрацює з MediaTek і Qualcomm для розробки процесорів для смартфонів, згідно з аналізом ланцюга постачання аналітика Tianfeng International Securities Мін-Чі Куо. Foxconn Connector (Luxshare Precision) буде виступати єдиним партнером із проєктування системи та

GateNews1год тому
Прокоментувати
0/400
Немає коментарів