Gate News notícia, 12 de março, WIRED descobriu nos documentos financeiros da SEC da Nvidia para 2025 que a empresa planeja investir 26 mil milhões de dólares nos próximos cinco anos para construir modelos de IA de peso aberto, com confirmação dos altos executivos. Bryan Catanzaro, vice-presidente de pesquisa em aprendizagem profunda da Nvidia, afirmou: «Ajudar o ecossistema a evoluir é do nosso interesse. Somos uma empresa americana, mas colaboramos com empresas de todo o mundo, e ter um ecossistema diversificado e forte em várias regiões é do nosso interesse.»
O principal motivo da Nvidia para esta iniciativa é responder à vantagem de modelos de código aberto liderados na China. Atualmente, quase todos os melhores modelos de peso aberto do mundo vêm da China, incluindo DeepSeek, Alibaba Qwen, Moonshot AI, Z.ai, MiniMax, entre outros, com muitas startups e investigadores estrangeiros a construir aplicações com base nesses modelos chineses. Rumores indicam que o DeepSeek está prestes a lançar um novo modelo treinado inteiramente com chips Huawei, o que, se for verdade, provará que «é possível treinar modelos de topo sem a Nvidia».
No mesmo dia, a Nvidia lançou o seu modelo de peso aberto mais avançado até à data, o Nemotron 3 Super, com 128 mil milhões de parâmetros, equivalente à maior versão do GPT-OSS da OpenAI. A empresa afirmou que este modelo obteve uma pontuação de 37 no AI Index (uma avaliação global em 10 testes de referência), superando os 33 do GPT-OSS, mas ficando abaixo de vários modelos chineses. A Nvidia também afirmou que o Nemotron 3 Super ficou em primeiro lugar no PinchBench (uma nova avaliação que mede a capacidade do modelo de controlar o OpenClaw). Além disso, a empresa concluiu o pré-treinamento de um modelo com 550 mil milhões de parâmetros. Nathan Lambert, responsável pelo projeto ATOM do Instituto de Investigação em IA Allen, afirmou ser «um fã dedicado do Nemotron» e apelou ao governo dos EUA para também financiar modelos de código aberto.