A16z lidera $16M ronda de financiamento para a startup sueca de IA Pit

Segundo a Bloomberg, a startup sueca de IA Pit angariou 16 milhões de dólares numa ronda de financiamento liderada pela Andreessen Horowitz, com participação da Lakestar e de executivos de grandes empresas de IA e tecnologia. As famílias Stena e Lundin, da Suécia, também se juntaram à ronda. A Pit já garantiu projetos-piloto com Voi, Tre, Stena Recycling e Kry. O financiamento servirá para apoiar o desenvolvimento das ferramentas de IA da Pit, concebidas para agilizar fluxos de trabalho fragmentados entre várias indústrias.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Disputa do Anthropic Code Mode: MCP vs CLI — as ferramentas travam o Runtime e os tokens caem de 150 mil para 2 mil

Em 2025, ao longo de todo o ano, a comunidade de engenharia de IA discutiu sem parar qual é que, na questão «MCP vs CLI», é mais adequado para chamadas de ferramentas por agentes; e a tese da Anthropic, publicada em novembro de 2025, «Code execution with MCP», redefiniu o problema a partir de primeiros princípios. akshay\pachaar organizou a thread em 5/10 e explicou que o problema nunca esteve no protocolo em si, mas sim no hábito antigo de «enfiar todas as descrições de ferramentas no context n

ChainNewsAbmedia1h atrás

A ByteDance planeia um aumento de 25% na despesa com infraestruturas de IA para 200 mil milhões de yuan este ano

De acordo com a ChainCatcher, citando a Golden Data, a ByteDance planeia aumentar a despesa com infraestruturas de IA em 25% até 200 mil milhões de yuans este ano, impulsionada pelos custos crescentes dos chips de memória e pelo desenvolvimento acelerado da inteligência artificial.

GateNews2h atrás

Plataforma de IA Empresarial Pit fecha rodada de financiamento $16M liderada pela a16z

Segundo a Odaily, a plataforma empresarial de IA Pit anunciou a conclusão de uma ronda de financiamento de 16 milhões de dólares, liderada pela a16z, com participação da Lakestar e de executivos da OpenAI, Anthropic, Google, Deel e Revolut. A Pit posiciona-se como “equipa de produtos de IA como serviço”, concebida para substituir folhas de cálculo tradicionais e sistemas SaaS rígidos.

GateNews2h atrás

A Google prepara exames de contratação que permitem aos engenheiros usar ferramentas de IA

De acordo com o The Chosun Daily, o Google está a fazer testes a exames de recrutamento que permitem que candidatos a engenheiros de software nos EUA usem ferramentas de IA em posições selecionadas de nível de entrada e intermédio. O ensaio inclui tarefas de compreensão de código em que os candidatos analisam código existente, corrigem bugs e melhoram o desempenho. Os entrevistadores irão avaliar a forma como os candidatos orientam a IA, verificam o resultado, editam os resultados e fazem debug

GateNews4h atrás

A OpenAI interrompe a API de fine-tuning com efeito imediato; os utilizadores existentes podem aceder até 6 de janeiro de 2027

De acordo com o anúncio oficial da OpenAI monitorizado pela Beating, a empresa está a descontinuar a sua API de Fine-tuning self-serve para programadores com efeitos imediatos. Os novos utilizadores já não podem criar tarefas de fine-tuning, enquanto os utilizadores ativos existentes podem aceder ao serviço até 6 de janeiro de 2027. Os modelos fine-tuned já implementados terão os seus serviços de inferência associados ao ciclo de vida dos modelos base, cessando quando o modelo base for descontin

GateNews5h atrás

Sakana AI e Nvidia alcançam uma inferência H100 30% mais rápida ao ignorar 80% dos cálculos inválidos

A Sakana AI e a Nvidia disponibilizaram em open source o TwELL, um formato de dados esparso que permite que as GPUs H100 saltem 80% dos cálculos inválidos em modelos de linguagem grandes sem comprometer a precisão. A solução proporciona até 30% de inferência mais rápida e 24% de treino mais rápido nas H100, ao mesmo tempo que reduz o uso de memória de pico. Em testes num modelo com 1,5 mil milhões de parâmetros, a abordagem baixou os neurónios ativos para menos de 2% através de regularização lev

GateNews6h atrás
Comentar
0/400
Nenhum comentário