Mensagem do Gate News, 24 de Abril — O engenheiro da OpenAI Clive Chan apresentou objecções detalhadas ao capítulo de recomendações de hardware no relatório técnico V4, chamando-lhe “surpreendentemente medíocre e propenso a erros” em comparação com a aclamada versão V3. A orientação de hardware da V3, que incluía sessões de Q&A que se tornaram no tema de discussão mais popular na conferência académica ISCA, ofereceu recomendações específicas alinhadas com normas de interconexão da indústria. Já a V4, em contraste, é muito mais vaga.
Chan contestou sistematicamente três recomendações-chave. No consumo de energia, o relatório sugere que a optimização de software permite que os chips executem simultaneamente em capacidade total computação, armazenamento e comunicação, e recomenda que os fabricantes de chips reservem folga adicional de energia. Chan argumenta que isso é contraproducente: o poder total do chip é limitado por restrições das limitações físicas do processo, pelo que reservar mais margem de energia apenas reduz a frequência de funcionamento, acabando por diminuir o desempenho computacional. No que respeita à transferência de dados de GPU para GPU, o relatório defende um modelo pull—em que as GPUs buscam activamente dados—em vez de um modelo push, citando a elevada sobrecarga de notificações em operações push. Chan contesta isso, sustentando que o pull é na verdade mais lento e que capacidades melhoradas dos adaptadores de rede seriam preferíveis. No entanto, os dois podem estar a discutir camadas diferentes do problema: o relatório trata a sobrecarga do mecanismo de notificação, enquanto Chan se refere à própria latência de transmissão.
Quanto às funções de activação, o relatório recomenda substituir SwiGLU por funções mais simples para reduzir a carga computacional. Chan não vê mérito nisso, observando que o Sonic MoE já demonstrou desempenho óptimo usando SwiGLU. Chan suspeita que o DeepSeek pode ter “enfraquecido deliberadamente esta secção.”
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
Meta e Amazon Concordam num Acordo de Vários Milhares de Milhões de Dólares para Fornecer Chips Graviton para o Desenvolvimento de IA
Mensagem do Gate News, 24 de abril — A Meta Platforms e os Amazon Web Services (AWS) chegaram a um acordo de vários milhares de milhões de dólares para apoiar as iniciativas de inteligência artificial da Meta ao longo dos próximos anos, de acordo com o Wall Street Journal. Nos termos do acordo, a Meta irá utilizar dezenas de milhões de núcleos de chips AWS Graviton c
GateNews12m atrás
DeepSeek V4-Flash chega ao Ollama Cloud, servidor nos EUA: Claude Code, OpenClaw ligação automática com um clique
Ollama Cloud colocou DeepSeek V4-Flash à venda, com inferência em servidores nos EUA, disponibilizando três conjuntos de comandos de acesso rápido para ligar ao Claude Code, OpenClaw e Hermes. V4-Flash/V4-Pro adoptam uma arquitectura MoE, com suporte nativo para contexto de 1M, e reduzem custos com compressão Token-wise + atenção esparsa DSA; em cenários de 1M, os FLOPs por token caem 27% e a cache KV reduz 10%. A API é compatível com OpenAI ChatCompletions e Anthropic, facilitando a alternância entre vários fluxos de trabalho, reduzindo custos e riscos de soberania dos dados.
ChainNewsAbmedia1h atrás
Infraestrutura Web3 para IA: AIW3 angaria $2M em financiamento semente liderado pela Buffalo Capital
Notícia do Gate, 24 de abril — A plataforma de infraestrutura Web3 para IA, AIW3, anunciou a conclusão de uma ronda de financiamento semente no valor de $2 milhões. A ronda foi liderada pela Buffalo Capital, com a GalaXin Capital e a Three-stones Ventures a participarem como co-investidoras.
A AIW3 está a transitar para um paradigma de execução on-chain Agent-as-a-Service
GateNews1h atrás
Cohere Adquire Empresa Alemã de IA Aleph Alpha, Garante $600M Investimento para Expansão na Europa
Mensagem de Notícias do Gate, 24 de abril — A empresa canadiana de IA Cohere anunciou planos para adquirir a empresa alemã de IA Aleph Alpha, para reforçar a sua presença na Europa. A Schwarz Group, apoiadora da Aleph Alpha, planeia investir $600 milhões na ronda de financiamento Série E da Cohere.
Espera-se que a ronda de financiamento seja concluída em 202
GateNews2h atrás
Xpeng e Xiaomi lideram avanço de IA no automóvel no Beijing Auto Show
Notícia do Gate, 24 de Abril — Os fabricantes automóveis chineses mostraram sistemas avançados de IA para automóveis no Beijing Auto Show a 24 de Abril, enquanto o país acelera a sua estratégia AI Plus e procura uma maior independência de semicondutores estrangeiros.
A Xpeng demonstrou um estacionamento controlado por voz que permite aos condutores de emitir comandos falados em vez de selecionar manualmente localizações.
GateNews3h atrás