De acordo com a OpenAI, a empresa mudou o modelo padrão do ChatGPT para o GPT-5.5 Instant em 8 de maio. Em testes internos, o modelo gerou 52,5% menos alegações alucinatórias do que o GPT-5.3 Instant em prompts de alto risco, reduzindo também as alegações imprecisas em 37,3% em conversas sinalizadas pelos usuários por erros factuais. A atualização também melhorou a análise de imagens, o tratamento de questões de STEM e a tomada de decisão em pesquisas na web.
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o
Aviso Legal.
Related Articles
O Google está testando contratações por meio de exames que permitem que engenheiros usem ferramentas de IA
De acordo com o The Chosun Daily, a Google está fazendo testes de exames de contratação que permitem que candidatos a engenheiros de software dos EUA usem ferramentas de IA em cargos selecionados de nível inicial e intermediário. O teste inclui tarefas de compreensão de código em que os candidatos analisam código existente, corrigem bugs e melhoram o desempenho. Os entrevistadores vão avaliar como os candidatos orientam a IA, verificam a saída, editam os resultados e fazem o debug do código, em
GateNews1h atrás
A OpenAI descontinua a API de fine-tuning com efeito imediato; usuários existentes poderão acessar até 6 de janeiro de 2027
De acordo com o anúncio oficial da OpenAI monitorado pela Beating, a empresa está descontinuando sua API de Fine-tuning self-serve para desenvolvedores a partir de agora. Novos usuários não podem mais criar tarefas de fine-tuning, enquanto usuários ativos existentes podem acessar o serviço até 6 de janeiro de 2027. Modelos fine-tunados implantados terão seus serviços de inferência vinculados ao ciclo de vida de seus modelos base, encerrando quando o modelo base for desativado. A OpenAI afirmou q
GateNews2h atrás
Sakana AI e Nvidia alcançam inferência do H100 30% mais rápida, pulando 80% dos cálculos inválidos
Sakana AI e Nvidia disponibilizaram TwELL em código aberto, um formato de dados esparso que permite que as GPUs H100 ignorem 80% das computações inválidas em grandes modelos de linguagem sem comprometer a precisão. A solução oferece até 30% mais velocidade na inferência e 24% mais rapidez no treinamento nas H100, ao mesmo tempo em que reduz o uso máximo de memória. Em testes em um modelo de 1,5 bilhão de parâmetros, a abordagem reduziu os neurônios ativos para abaixo de 2% por meio de regulariza
GateNews3h atrás
A Microsoft disponibiliza como código aberto o modelo Phi-Ground 4B, superando o OpenAI Operator e o Claude em precisão ao clicar na tela
Segundo Beating, a Microsoft recentemente disponibilizou em código aberto a família de modelos Phi-Ground, projetada para resolver o problema de onde a IA deve clicar em uma tela de computador. A versão de 4 bilhões de parâmetros, combinada com modelos de linguagem maiores para planejamento de instruções, superou a precisão de clique do OpenAI Operator e do Claude Computer Use no benchmark Showdown e ficou em primeiro lugar entre todos os modelos com menos de 100 bilhões de parâmetros em cinco a
GateNews4h atrás
A Tilde Research descobre que o Muon Optimizer mata 25% dos neurônios; a alternativa Aurora alcança um ganho de eficiência de dados 100x
De acordo com a Tilde Research, o otimizador Muon adotado por modelos de IA de ponta, incluindo DeepSeek V4 e Kimi K2.5, tem uma falha oculta: ele faz com que mais de 25% dos neurônios das camadas MLP morram permanentemente durante o treinamento inicial. A equipe projetou a Aurora, um otimizador alternativo, e a disponibilizou em código aberto. Um modelo com 1,1B parâmetros treinado com apenas 100B tokens conseguiu igualar o desempenho do Qwen3-1.7B treinado em 36T tokens em benchmarks de compre
GateNews4h atrás
Nvidia Aposta Mais de US$ 40 bilhões em investimentos de IA no início de 2026, incluindo US$ 30 bilhões para a OpenAI
De acordo com a TechCrunch, a Nvidia comprometeu mais de US$ 40 bilhões em investimentos de capital em empresas de IA nos primeiros meses de 2026, com um investimento de US$ 30 bilhões na OpenAI como o maior compromisso individual. A fabricante de chips também prometeu até US$ 3,2 bilhões para a fabricante de vidro Corning e até US$ 2,1 bilhões para a operadora de data centers IREN, o que inclui um warrant de cinco anos e um contrato separado de US$ 3,4 bilhões para serviços de nuvem de GPU gere
GateNews7h atrás