DeepL corta 25% da força de trabalho (cerca de 250 funcionários) para reestruturar o negócio de IA

A Bloomberg informou que a empresa de ferramentas de tradução DeepL anunciou hoje, 7 de maio, que vai demitir aproximadamente 25% de sua força de trabalho, cerca de 250 funcionários, para se adaptar a mudanças estruturais impulsionadas pela inteligência artificial. O CEO Jarek Kutylowski disse no LinkedIn que a empresa vai reduzir as camadas de gestão e acelerar a tomada de decisões para enfrentar a era da IA. A DeepL, fundada em 2017 e com sede em Colônia, é vista como uma concorrente do Google Translate e levantou US$ 300 milhões em 2024, avaliando a empresa em US$ 2 bilhões.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

A API da B.AI lança quatro novos modelos, incluindo o GPT-5,5 Instant, dentro de 48 horas após a divulgação do OpenAI

A API do B.AI lançou quatro novos modelos: GPT-5.5 Instant, DeepSeek-v3.2, MiniMax-M2.7 e GLM-5.1. O GPT-5.5 Instant concluiu a adaptação subjacente e a integração da interface em 48 horas após o lançamento da OpenAI, permitindo acesso sem atraso a

GateNews5m atrás

O modelo de IA médica da Tether, de US$ 1,7 bilhão, supera hoje um concorrente 16 vezes maior

De acordo com a equipe de pesquisa em IA da Tether, a empresa lançou hoje os modelos de linguagem médica da série QVAC MedPsy, projetados para implantação local em smartphones e dispositivos vestíveis, sem dependência da nuvem. A versão com 1,7 bilhão de parâmetros obteve 62,62 em sete benchmarks médicos, superando o Google MedGemma-4B

GateNews15m atrás

Valuation Pré-IPO da Anthropic atinge US$ 1,2 trilhão, superando a OpenAI em 20%

De acordo com a Odaily, a avaliação implícita da Anthropic no mercado de pré-IPO baseado em blockchain atingiu US$ 1,2 trilhão, superando a OpenAI em aproximadamente 20%. Se a empresa abrir o capital nesse valor, ela se classificaria como a 11ª maior empresa de capital aberto do mundo por valor de mercado, atrás da Apple,

GateNews20m atrás

Rali de ações da Coreia do Sul supera os mercados globais com o boom de IA

O mercado de ações da Coreia do Sul está registrando ganhos sem precedentes impulsionados por ações de semicondutores relacionadas à inteligência artificial, com o índice KOSPI em alta de 78% neste ano, superando todos os outros mercados importantes do mundo, segundo dados da Financial Modeling Prep citados em uma análise da Axios. AI

CryptoFrontier28m atrás

A NVIDIA lança o Nemotron 3 Nano Omni open source multimodal

A NVIDIA anunciou o Nemotron 3 Nano Omni, um modelo multimodal de código aberto, integrando visão, voz e linguagem em um único modelo, como camada de percepção para agentes de IA. O núcleo é o MoE 30B-A3B, com context 256K e 9x de taxa de transferência (throughput), com suporte a entradas de texto, imagem, áudio e vídeo, entre outras, e saída em texto. Em conjunto com o Nemotron 3 Super/Ultra, é voltado para cenários como operação de computador, inteligência de documentos e compreensão audio-visual, além de disponibilizar pesos e dados de treinamento, com implantação cobrindo o ambiente local, o NIM e plataformas de terceiros.

ChainNewsAbmedia1h atrás

O Cursor revela o método de treinamento com autoinstalação e melhora o desempenho do Composer 2 em 14 pontos percentuais

De acordo com a divulgação recente do Cursor, a empresa revelou uma técnica de treinamento chamada autoinstall para a sua série de modelos Composer: usando um modelo da geração anterior para configurar automaticamente ambientes executáveis para o aprendizado por reforço da próxima geração. Ao treinar o Composer 2, o Cursor

GateNews1h atrás
Comentário
0/400
Sem comentários