Según Bloomberg, la empresa de herramientas de traducción DeepL anunció hoy, 7 de mayo, que despedirá aproximadamente el 25% de su plantilla, cerca de 250 empleados, para adaptarse a cambios estructurales impulsados por la inteligencia artificial. El CEO Jarek Kutylowski dijo en LinkedIn que la compañía reducirá los niveles de gestión y acelerará la toma de decisiones para afrontar la era de la IA. DeepL, fundada en 2017 y con sede en Colonia, es vista como un competidor de Google Translate y recaudó 300 millones de dólares en 2024 con una valoración de 2.000 millones de dólares.
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.
Artículos relacionados
La API de B.AI lanza cuatro modelos nuevos, incluido GPT-5.5 Instant en las 48 horas posteriores al lanzamiento de OpenAI
La API de B.AI ha lanzado cuatro nuevos modelos: GPT-5.5 Instant, DeepSeek-v3.2, MiniMax-M2.7 y GLM-5.1. GPT-5.5 Instant completó la adaptación subyacente y la integración de la interfaz en 48 horas desde el lanzamiento de OpenAI, lo que permite acceso sin retraso a
GateNewsHace5m
El modelo de IA médica de Tether, de 1,7 mil millones, supera hoy a un competidor 16 veces más grande
Según el equipo de investigación de IA de Tether, la compañía lanzó hoy los modelos de lenguaje médicos de la serie QVAC MedPsy, diseñados para su implementación local en teléfonos inteligentes y dispositivos wearables sin dependencia de la nube. La versión de 1,7B parámetros obtuvo 62,62 en siete puntos de referencia médicos, superando a Google MedGemma-4B
GateNewsHace15m
La valoración de Anthropic antes de su salida a bolsa alcanza 1,2 billones de dólares, superando a OpenAI en un 20%
Según Odaily, la valoración implícita de Anthropic en el mercado de pre-IPO basado en blockchain alcanzó 1,2 billones de dólares, superando a OpenAI en aproximadamente un 20%. Si la empresa saliera a bolsa con esa valoración, se situaría como la 11.ª empresa cotizada públicamente más grande a nivel mundial por capitalización de mercado, detrás de Apple,
GateNewsHace20m
La subida bursátil de Corea del Sur supera a los mercados globales por el auge de la IA
El mercado de valores de Corea del Sur está experimentando ganancias sin precedentes impulsadas por acciones de semiconductores relacionadas con la inteligencia artificial, con el índice KOSPI subiendo 78% este año, superando a cualquier otro mercado importante a nivel global, según los datos de Financial Modeling Prep citados en un análisis de Axios.
AI
CryptoFrontierHace28m
NVIDIA lanza Nemotron 3 Nano Omni, código abierto multimodal
NVIDIA publica el modelo multimodal de código abierto Nemotron 3 Nano Omni, que integra visión, voz y lenguaje en un único modelo, como capa de percepción para agentes de IA. Su núcleo es 30B-A3B MoE, con contexto de 256K y un rendimiento de 9x; admite entradas de texto, imágenes, audio y video, y genera salidas en forma de texto. En colaboración con Nemotron 3 Super/Ultra, es aplicable a escenarios como operación de computadoras, inteligencia de documentos y comprensión audio-visual, y publica los pesos y los datos de entrenamiento, con despliegue que abarca local, NIM y plataformas de terceros.
ChainNewsAbmediahace1h
Cursor revela el método de entrenamiento de autoinstalación y mejora el rendimiento de Composer 2 en 14 puntos porcentuales
Según la divulgación reciente de Cursor, la empresa presentó una técnica de entrenamiento llamada autoinstall para su serie de modelos Composer: usar un modelo de generación anterior para configurar automáticamente entornos ejecutables para el aprendizaje por refuerzo de la siguiente generación. Al entrenar Composer 2, Cursor
GateNewshace1h