O Google está testando contratações por meio de exames que permitem que engenheiros usem ferramentas de IA

De acordo com o The Chosun Daily, a Google está fazendo testes de exames de contratação que permitem que candidatos a engenheiros de software dos EUA usem ferramentas de IA em cargos selecionados de nível inicial e intermediário. O teste inclui tarefas de compreensão de código em que os candidatos analisam código existente, corrigem bugs e melhoram o desempenho. Os entrevistadores vão avaliar como os candidatos orientam a IA, verificam a saída, editam os resultados e fazem o debug do código, em vez de avaliar apenas a capacidade de escrever código do zero.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

A OpenAI descontinua a API de fine-tuning com efeito imediato; usuários existentes poderão acessar até 6 de janeiro de 2027

De acordo com o anúncio oficial da OpenAI monitorado pela Beating, a empresa está descontinuando sua API de Fine-tuning self-serve para desenvolvedores a partir de agora. Novos usuários não podem mais criar tarefas de fine-tuning, enquanto usuários ativos existentes podem acessar o serviço até 6 de janeiro de 2027. Modelos fine-tunados implantados terão seus serviços de inferência vinculados ao ciclo de vida de seus modelos base, encerrando quando o modelo base for desativado. A OpenAI afirmou q

GateNews2h atrás

Sakana AI e Nvidia alcançam inferência do H100 30% mais rápida, pulando 80% dos cálculos inválidos

Sakana AI e Nvidia disponibilizaram TwELL em código aberto, um formato de dados esparso que permite que as GPUs H100 ignorem 80% das computações inválidas em grandes modelos de linguagem sem comprometer a precisão. A solução oferece até 30% mais velocidade na inferência e 24% mais rapidez no treinamento nas H100, ao mesmo tempo em que reduz o uso máximo de memória. Em testes em um modelo de 1,5 bilhão de parâmetros, a abordagem reduziu os neurônios ativos para abaixo de 2% por meio de regulariza

GateNews3h atrás

A Microsoft disponibiliza como código aberto o modelo Phi-Ground 4B, superando o OpenAI Operator e o Claude em precisão ao clicar na tela

Segundo Beating, a Microsoft recentemente disponibilizou em código aberto a família de modelos Phi-Ground, projetada para resolver o problema de onde a IA deve clicar em uma tela de computador. A versão de 4 bilhões de parâmetros, combinada com modelos de linguagem maiores para planejamento de instruções, superou a precisão de clique do OpenAI Operator e do Claude Computer Use no benchmark Showdown e ficou em primeiro lugar entre todos os modelos com menos de 100 bilhões de parâmetros em cinco a

GateNews4h atrás

A Tilde Research descobre que o Muon Optimizer mata 25% dos neurônios; a alternativa Aurora alcança um ganho de eficiência de dados 100x

De acordo com a Tilde Research, o otimizador Muon adotado por modelos de IA de ponta, incluindo DeepSeek V4 e Kimi K2.5, tem uma falha oculta: ele faz com que mais de 25% dos neurônios das camadas MLP morram permanentemente durante o treinamento inicial. A equipe projetou a Aurora, um otimizador alternativo, e a disponibilizou em código aberto. Um modelo com 1,1B parâmetros treinado com apenas 100B tokens conseguiu igualar o desempenho do Qwen3-1.7B treinado em 36T tokens em benchmarks de compre

GateNews4h atrás

Nvidia Aposta Mais de US$ 40 bilhões em investimentos de IA no início de 2026, incluindo US$ 30 bilhões para a OpenAI

De acordo com a TechCrunch, a Nvidia comprometeu mais de US$ 40 bilhões em investimentos de capital em empresas de IA nos primeiros meses de 2026, com um investimento de US$ 30 bilhões na OpenAI como o maior compromisso individual. A fabricante de chips também prometeu até US$ 3,2 bilhões para a fabricante de vidro Corning e até US$ 2,1 bilhões para a operadora de data centers IREN, o que inclui um warrant de cinco anos e um contrato separado de US$ 3,4 bilhões para serviços de nuvem de GPU gere

GateNews7h atrás

NVIDIA firma parceria de longo prazo com a AI aberta Deepinfra e obtém US$ 107 milhões na rodada B para criar uma "fábrica de tokens"

A startup de inteligência artificial DeepInfra anunciou a conclusão de uma rodada B de US$ 1,07 bilhão, liderada pela 500 Global e por engenheiros veteranos do Google, Georges Harik, com participação de investidores estratégicos como NVIDIA, Samsung Next e Supermicro. De acordo com a divulgação oficial, o aporte será usado para expandir a capacidade de data centers globais, resolvendo os custos de computação e os gargalos de eficiência enfrentados no momento em que as aplicações de IA passam de

ChainNewsAbmedia8h atrás
Comentário
0/400
Sem comentários