Gate News mensagem, 24 de abril — O DeepSeek V4-Pro e o DeepSeek V4-Flash foram oficialmente lançados e open-source em 24 de abril, com o comprimento de contexto de processamento significativamente expandido de 128K para 1M, representando um aumento de capacidade de quase 10 vezes. A Huawei Computing anunciou que os seus produtos de supernó Ascend suportam totalmente os modelos da série DeepSeek V4 através de uma colaboração estreita entre tecnologias de chips e de modelos.
O Huawei Ascend 950 alcança uma implementação de inferência dos modelos DeepSeek V4 com elevada taxa de transferência e baixa latência através de técnicas de kernel fundido e paralelismo multi-stream para reduzir a sobrecarga de computação de Attention e acessos à memória. Para o DeepSeek V4-Pro com entrada de 8K, o Ascend 950 atinge aproximadamente 20ms de TPOT com 4,700 TPS de throughput Decode por cartão; para o DeepSeek V4-Flash com entrada inferior a 8K, atinge aproximadamente 10ms de TPOT com 1,600 TPS de throughput. A série de supernós Ascend A3 também alcança compatibilidade total, com implementações de referência de treino fornecidas para uma afinação rápida. Com base no supernó Ascend A3 de 64 cartões com modo EP grande, o DeepSeek V4-Flash atinge mais de 2,000 TPS de throughput Decode por cartão em cenários de entrada/saída 8K/1K utilizando o motor de inferência vLLM. As linhas completas de produtos Huawei Ascend A2, A3 e 950 suportam tanto o DeepSeek V4-Flash como o V4-Pro.
A Huawei Cloud anunciou compatibilidade de primeira-mão com o DeepSeek V4, fornecendo aos programadores serviços de token de API com um clique através da sua plataforma MaaS. A Huawei Cloud otimizou as capacidades da camada de sistema, da camada de operadores e da camada de cluster para garantir adaptação rápida do modelo e uma implementação de alto desempenho. Empresas incluindo Kingsoft WPS e 360 já integraram o novo modelo da DeepSeek via a Huawei Cloud.
A Cambricon também anunciou compatibilidade Day 0 com o DeepSeek V4-Flash e o V4-Pro baseada no framework de inferência vLLM, com código de adaptação open-source para a comunidade GitHub. A Cambricon tinha anteriormente alcançado adaptação de primeira-mão quando o DeepSeek V3.2 foi lançado no ano passado, após ter realizado uma optimização profunda de desempenho colaborativa entre software e hardware nos modelos da série DeepSeek.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
DeepSeek V4 Pro no Ollama Cloud: ligação num só clique do Claude Code
De acordo com os tweets da Ollama, o DeepSeek V4 Pro foi lançado em 24/4, já foi adicionado no diretório da Ollama em modo de cloud e, com um único comando, pode chamar ferramentas como Claude Code, Hermes, OpenClaw, OpenCode, Codex, etc. V4 Pro 1.6T params, 1M context, Mixture-of-Experts; a inferência em cloud não descarrega pesos para a máquina local. Para executar localmente, é necessário obter os pesos e correr com INT4/GGUF e GPUs multi-cartão. Os testes de velocidade iniciais foram influenciados pela carga do serviço em cloud, com um valor típico de ~30 tok/s e um pico de 1.1 tok/s; recomenda-se usar o protótipo em cloud e, para produção em larga escala, fazer inferência local ou usar uma API comercial.
ChainNewsAbmedia6m atrás
DeepSeek reduz preços do V4-Pro em 75%, corta custos de cache da API para um décimo
Mensagem de Notícias da Gate, 27 de Abril — A DeepSeek anunciou um desconto de 75% no seu novo modelo V4-Pro para programadores e reduziu os preços de acerto de cache de entrada em toda a sua gama de APIs para um décimo dos níveis anteriores.
O modelo V4, lançado a 25 de Abril nas versões Pro e Flash, foi otimizado para os processadores Ascend da Huawei. A DeepSeek disse que o V4-Pro tem melhor desempenho do que outros modelos de código aberto em benchmarks de conhecimento do mundo e fica apenas em segundo lugar atrás do Gemini-Pro-3.1 da Google, um modelo proprietário. A família V4 foi concebida especificamente para agentes de IA a lidar com tarefas complexas além das capacidades de um chatbot.
Os custos da API V4-Pro já ficam abaixo dos principais concorrentes ocidentais, com preços de $3.48 por milhão de tokens de saída em comparação com para o GPT-4.5 da OpenAI. A tabela de preços do V4-Flash está em $0.14 por milhão de tokens de entrada e $0.28 por milhão de tokens de saída, o que pode permitir aplicações economicamente eficientes, como rever bases de código inteiras ou documentos regulamentares em solicitações únicas.
GateNews9m atrás
Coachella recorre à IA DeepMind da Google para reinventar concertos além do palco
A Coachella fez parceria com a Google DeepMind para testar novas ferramentas de IA que transformam a forma como as actuações de música ao vivo são criadas e experienciadas.
Resumo
A Coachella testou ferramentas de IA com a Google DeepMind para transformar actuações ao vivo em ambientes digitais interactivos.
Foram construídos três protótipos,
Cryptonews15m atrás
Guo Mingqiang: A OpenAI vai fazer um telemóvel com um agente de IA, MediaTek, Qualcomm e Luxshare Precision são uma cadeia de fornecimento chave
Guo Ming-qiang alega que a OpenAI está a colaborar com a MediaTek, a Qualcomm e a Luxshare Precision para desenvolver telemóveis com AI Agent, prevendo-se a produção em massa em 2028. O novo telemóvel terá como base central a conclusão de tarefas: os agentes de IA compreenderão e executarão os requisitos, combinando computação na cloud e no dispositivo, com foco em sensores e compreensão de contextos. As especificações e a lista da cadeia de fornecimento deverão ser definidas em 2026–2027; se se concretizar, poderá trazer um novo ciclo de substituição de telemóveis para o mercado de gama alta, e a Luxshare tem potencial para ser a principal beneficiária.
ChainNewsAbmedia25m atrás
IEA: O investimento em infraestruturas de IA já ultrapassou o investimento na produção de petróleo e gás; em 2026, prevê-se que aumente mais 75%
De acordo com a análise e os dados de mercado divulgados pela Agência Internacional da Energia (IEA) a 26 de abril, o investimento de capital (capex) total das cinco principais empresas tecnológicas em 2025 ultrapassa 400 mil milhões de dólares, sendo aplicado principalmente à construção de infraestruturas de IA, num nível já superior ao do investimento anual global em produção de petróleo e gás natural. A IEA estima que os capex relacionados poderão aumentar mais 75% em 2026.
MarketWhisper57m atrás
O senador Bernie Sanders emite um aviso sobre a ameaça existencial da IA
Sanders sublinhou que, mesmo que a maioria dos cientistas de IA reconheça a possibilidade de a IA escapar ao controlo e se tornar um perigo para a nossa existência, não foram tomadas medidas importantes para evitar isso. “Temos de garantir que a IA beneficia a humanidade, e não nos prejudica”, afirmou.
Principais lições:
Bernie Sanders
Coinpedia1h atrás