Sakana AI e Nvidia alcançam uma inferência H100 30% mais rápida ao ignorar 80% dos cálculos inválidos

A Sakana AI e a Nvidia disponibilizaram em open source o TwELL, um formato de dados esparso que permite que as GPUs H100 saltem 80% dos cálculos inválidos em modelos de linguagem grandes sem comprometer a precisão. A solução proporciona até 30% de inferência mais rápida e 24% de treino mais rápido nas H100, ao mesmo tempo que reduz o uso de memória de pico. Em testes num modelo com 1,5 mil milhões de parâmetros, a abordagem baixou os neurónios ativos para menos de 2% através de regularização leve durante o treino, sem degradação de desempenho em sete tarefas downstream.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Disputa do Anthropic Code Mode: MCP vs CLI — as ferramentas travam o Runtime e os tokens caem de 150 mil para 2 mil

Em 2025, ao longo de todo o ano, a comunidade de engenharia de IA discutiu sem parar qual é que, na questão «MCP vs CLI», é mais adequado para chamadas de ferramentas por agentes; e a tese da Anthropic, publicada em novembro de 2025, «Code execution with MCP», redefiniu o problema a partir de primeiros princípios. akshay\pachaar organizou a thread em 5/10 e explicou que o problema nunca esteve no protocolo em si, mas sim no hábito antigo de «enfiar todas as descrições de ferramentas no context n

ChainNewsAbmedia12m atrás

A ByteDance planeia um aumento de 25% na despesa com infraestruturas de IA para 200 mil milhões de yuan este ano

De acordo com a ChainCatcher, citando a Golden Data, a ByteDance planeia aumentar a despesa com infraestruturas de IA em 25% até 200 mil milhões de yuans este ano, impulsionada pelos custos crescentes dos chips de memória e pelo desenvolvimento acelerado da inteligência artificial.

GateNews49m atrás

Plataforma de IA Empresarial Pit fecha rodada de financiamento $16M liderada pela a16z

Segundo a Odaily, a plataforma empresarial de IA Pit anunciou a conclusão de uma ronda de financiamento de 16 milhões de dólares, liderada pela a16z, com participação da Lakestar e de executivos da OpenAI, Anthropic, Google, Deel e Revolut. A Pit posiciona-se como “equipa de produtos de IA como serviço”, concebida para substituir folhas de cálculo tradicionais e sistemas SaaS rígidos.

GateNews56m atrás

A Google prepara exames de contratação que permitem aos engenheiros usar ferramentas de IA

De acordo com o The Chosun Daily, o Google está a fazer testes a exames de recrutamento que permitem que candidatos a engenheiros de software nos EUA usem ferramentas de IA em posições selecionadas de nível de entrada e intermédio. O ensaio inclui tarefas de compreensão de código em que os candidatos analisam código existente, corrigem bugs e melhoram o desempenho. Os entrevistadores irão avaliar a forma como os candidatos orientam a IA, verificam o resultado, editam os resultados e fazem debug

GateNews3h atrás

A OpenAI interrompe a API de fine-tuning com efeito imediato; os utilizadores existentes podem aceder até 6 de janeiro de 2027

De acordo com o anúncio oficial da OpenAI monitorizado pela Beating, a empresa está a descontinuar a sua API de Fine-tuning self-serve para programadores com efeitos imediatos. Os novos utilizadores já não podem criar tarefas de fine-tuning, enquanto os utilizadores ativos existentes podem aceder ao serviço até 6 de janeiro de 2027. Os modelos fine-tuned já implementados terão os seus serviços de inferência associados ao ciclo de vida dos modelos base, cessando quando o modelo base for descontin

GateNews3h atrás

A Microsoft disponibiliza em open-source o modelo Phi-Ground 4B, com desempenho superior ao do OpenAI Operator e do Claude na precisão de cliques no ecrã

Segundo a Beating, a Microsoft lançou recentemente de forma open-source a família de modelos Phi-Ground, concebida para resolver o problema de onde a IA deve clicar num ecrã de computador. A versão com 4 mil milhões de parâmetros, emparelhada com modelos de linguagem maiores para planeamento de instruções, superou a precisão de cliques do OpenAI Operator e do Claude Computer Use no benchmark Showdown e ficou em primeiro lugar entre todos os modelos com menos de 100 mil milhões de parâmetros, em

GateNews5h atrás
Comentar
0/400
Nenhum comentário