Mensagem do Gate News, 24 de abril — DeepSeek V4-Pro e DeepSeek V4-Flash foram oficialmente lançados e tiveram seu código aberto em 24 de abril, com o comprimento de processamento de contexto sendo expandido significativamente de 128K para 1M, representando um aumento de capacidade de quase 10 vezes. A Huawei Computing anunciou que seus produtos de supernó Ascend suportam totalmente os modelos da série DeepSeek V4 por meio de estreita colaboração entre tecnologias de chip e de modelo.
O Ascend 950 da Huawei atinge implantação de inferência do modelo DeepSeek V4 com alta taxa de transferência e baixa latência por meio de técnicas de kernel fundido e paralelismo de múltiplos streams para reduzir a sobrecarga de computação de Attention e de acesso à memória. Para o DeepSeek V4-Pro com entrada de 8K, o Ascend 950 atinge aproximadamente 20ms de TPOT com 4.700 TPS de throughput de Decode de cartão único; para o DeepSeek V4-Flash com entrada abaixo de 8K, ele alcança aproximadamente 10ms de TPOT com throughput de 1.600 TPS. A série de supernós Ascend A3 também alcança compatibilidade total, com implementações de referência de treinamento fornecidas para ajuste fino rápido. Com base no supernó Ascend A3 de 64 cartões com modo EP grande, o DeepSeek V4-Flash atinge mais de 2.000 TPS de throughput de Decode de cartão único em cenários de entrada/saída de 8K/1K usando o mecanismo de inferência vLLM. As linhas completas de produtos Ascend A2, A3 e 950 da Huawei suportam tanto o DeepSeek V4-Flash quanto o V4-Pro.
A Huawei Cloud anunciou compatibilidade de primeira-mover com o DeepSeek V4, fornecendo aos desenvolvedores serviços de token de API com um clique por meio de sua plataforma MaaS. A Huawei Cloud otimizou as capacidades de camada do sistema, camada de operadores e camada de cluster para garantir adaptação rápida do modelo e implantação com alto desempenho. Empresas incluindo Kingsoft WPS e 360 já integraram o novo modelo da DeepSeek via a Huawei Cloud.
A Cambricon também anunciou compatibilidade Day 0 com o DeepSeek V4-Flash e V4-Pro com base na estrutura de inferência vLLM, com código de adaptação em código aberto para a comunidade do GitHub. A Cambricon anteriormente alcançou adaptação de primeira-mover quando o DeepSeek V3.2 foi lançado no ano passado, tendo realizado profunda otimização de desempenho colaborativa software-hardware nos modelos da série DeepSeek.
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o
Aviso Legal.
Related Articles
Aumentar a produção com IA reduz custos ou os diminui? Eficiência de cem vezes não trouxe receita cem vezes maior, mas ninguém na Califórnia (Vale do Silício) tem coragem de dizer para parar
Os sócios da WuYuan Capital, Meng Xing, recentemente publicou um relatório de visita e observação em Silicon Valley, propondo um tipo de julgamento que até fez ele próprio mudar o hábito de tomar notas: a Silicon Valley está entrando em uma fase em que até quem “tenta surfar as ondas” é engolido pelas ondas. A velocidade de iteração da IA já saiu de “mensal” para “semanal”; até a própria Silicon Valley não consegue acompanhar a si mesma.
Quando a IA amplia em cinco vezes a produtividade de uma equipe, você pode reduzir em 80% os recursos humanos para manter a produção original ou manter o número de pessoas para fazer cinco vezes mais coisas. A observação de Meng Xing desta vez em Silicon Valley equivale, no local, a um rascunho da resposta: quando uma eficiência de 100x não se converte em 100x de receita, quando o orçamento de tokens está se aproximando do custo de mão de obra, e quando a máquina a vapor ainda não corre mais do que a carruagem, mas ninguém se atreve a parar, a Silicon Valley agora escolhe “primeiro acelerar a velocidade, para ver”. Mas no fim essa rota levará a “capacidade de expansão” ou a “redução de custos”, ainda não há uma conclusão.
A YC passou de indicadores líderes para indicadores atrasados
Meng Xing este ano
ChainNewsAbmedia53m atrás
Os sócios da YC compartilham como usar IA para construir uma empresa do zero, e como startups devem tratar a IA como um sistema operacional e não como uma ferramenta
O impacto da IA nas startups já não é apenas fazer com que engenheiros escrevam código mais rápido, automatizar fluxos do atendimento ao cliente ou adicionar um Copilot a um produto existente. Os sócios da YC, Diana, apontaram recentemente que a verdadeira mudança está em que a IA está reescrevendo “como uma empresa deve ser criada do zero”. Para fundadores em estágio inicial, a IA não deve ser apenas uma ferramenta de eficiência usada ocasionalmente pela empresa; ela deve ser projetada para fazer parte do sistema operacional de toda a organização desde o primeiro dia.
A visão de produtividade já está ultrapassada, a IA está reescrevendo o ponto de partida do design das empresas
Diana acredita que, no momento, quando o mercado fala sobre IA, ainda se prende muito ao arcabouço de “aumentar a produtividade”, por exemplo: engenheiros podem escrever código mais rápido, equipes podem automatizar mais processos e a empresa pode lançar mais funcionalidades. Mas essa afirmação, na verdade, subestima as mudanças estruturais trazidas pela IA. Ela aponta que a combinação correta com a IA工
ChainNewsAbmedia1h atrás
O agente da Cursor AI deu problema! Uma linha de código limpa o banco de dados da empresa em 9 segundos, a segurança virou conversa fiada.
Fundador do PocketOS, Jer Crane, disse que o agente de IA do Cursor executou manutenção por conta própria no ambiente de testes, abusando de um Token de API adicionado/removido um domínio personalizado, para disparar um comando de exclusão contra a API GraphQL da Railway. Em 9 segundos, os dados e snapshots da mesma região foram totalmente destruídos; o mais recente que poderia ser restaurado era de três meses atrás. O agente admitiu violar regras de operações irreversíveis, não ter lido a documentação técnica e não ter verificado o isolamento do ambiente, entre outras. As vítimas foram clientes do setor de locação de carros: as reservas e os dados foram totalmente apagados, e o trabalho de conciliação contábil levou muito tempo. Crane propôs cinco reformas: confirmação manual, permissões de API mais granulares, separação entre backups e dados principais, SLA público e mecanismos de coerção na camada subjacente.
ChainNewsAbmedia1h atrás
DeepSeek V4 Pro no Ollama Cloud: Claude Code em um clique
De acordo com os tweets da Ollama, o DeepSeek V4 Pro foi lançado em 4/24 e já foi adicionado ao diretório da Ollama em modo de nuvem, sendo possível chamá-lo com apenas um comando para utilizar ferramentas como Claude Code, Hermes, OpenClaw, OpenCode, Codex etc. O V4 Pro tem 1.6T de parâmetros, 1M de context, e é Mixture-of-Experts; a inferência em nuvem não baixa os pesos locais. Para executar localmente, é necessário obter os pesos e executá-los com INT4/GGUF e múltiplas GPUs. Testes iniciais de velocidade foram afetados pela carga do servidor na nuvem, com velocidade constante em torno de 30 tok/s e pico de 1.1tok/s; recomenda-se usar o protótipo em nuvem, e só para produção em massa então fazer inferência por conta própria ou usar uma API comercial.
ChainNewsAbmedia1h atrás
DeepSeek corta os preços do V4-Pro em 75% e reduz os custos do cache da API para um décimo
Mensagem do Gate News, 27 de abril — A DeepSeek anunciou um desconto de 75% no seu novo modelo V4-Pro para desenvolvedores e reduziu os preços de cache de entrada em toda a sua linha de APIs para um décimo dos níveis anteriores.
O modelo V4, lançado em 25 de abril nas versões Pro e Flash, foi otimizado para os processadores Ascend da Huawei
GateNews1h atrás