DeepSeek lanza los modelos V4-Pro y V4-Flash con un costo un 98% menor que el GPT-5.5 Pro de OpenAI

Mensaje de Gate News, 25 de abril — DeepSeek lanzó versiones de vista previa de V4-Pro y V4-Flash el 24 de abril, ambos modelos de código abierto con ventanas de contexto de un millón de tokens. V4-Pro presenta 1,6 billones de parámetros totales, pero activa solo 49 mil millones por pasada de inferencia usando una arquitectura Mixture-of-Experts. V4-Flash tiene 284 mil millones de parámetros totales con 13 mil millones activos.

Los precios son significativamente más bajos que los de la competencia: V4-Pro cuesta $1.74 por millón de tokens de entrada y $3.48 por millón de tokens de salida—aproximadamente un 98% menos que el GPT-5.5 Pro de OpenAI ($30 input, $180 output) y alrededor de una vigésima parte del costo de Claude Opus 4.7. V4-Flash se fija en $0.14 para entrada y $0.28 para salida por cada millón de tokens. Ambos modelos son de código abierto bajo la licencia MIT y pueden ejecutarse localmente de forma gratuita.

DeepSeek logró mejoras de eficiencia mediante dos nuevos mecanismos de atención: Compressed Sparse Attention y Heavily Compressed Attention, que reducen los costos de cómputo al 27% del predecesor V4-Pro (V3.2) y al 10% para V4-Flash. La compañía entrenó V4 en parte con chips Huawei Ascend, eludiendo las restricciones de exportación de EE. UU. sobre procesadores Nvidia avanzados. DeepSeek indicó que, una vez que entren en línea 950 nuevos supernodos más tarde en 2026, los precios bajarán aún más.

En benchmarks de rendimiento, V4-Pro-Max ocupa el primer lugar en Codeforces competitive programming (3,206 puntos, ubicándose alrededor del puesto 23 entre los concursantes humanos) y obteniendo 90.2% en problemas de matemáticas de Apex Shortlist frente al 85.9% de Claude Opus 4.6. Sin embargo, se queda atrás en benchmarks de multitarea: MMLU-Pro (87.5% frente al 91.0% de Gemini-3.1-Pro) y Humanity’s Last Exam (37.7% frente al 44.4%). En tareas de contexto largo, V4-Pro lidera a los modelos de código abierto pero pierde frente a Claude Opus 4.6 en pruebas de recuperación MRCR.

V4-Pro introduce “pensamiento intercalado,” lo que permite que los flujos de trabajo de agentes conserven el contexto de razonamiento a través de múltiples llamadas a herramientas sin vaciarlo entre pasos. Ambos modelos admiten integraciones de programación con Claude Code y OpenCode. Según la encuesta a desarrolladores de DeepSeek de 85 usuarios, el 52% dijo que V4-Pro estaba listo como su agente de codificación predeterminado, y el 39% se inclinó por adoptarlo. Los endpoints antiguos deepseek-chat y deepseek-reasoner se retirarán el 24 de julio de 2026.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Ejecutivo de Google DeepMind: cada empresa de productos de IA debe crear puntos de referencia personalizados

Mensaje de Gate News, 27 de abril — Logan Kilpatrick, gerente de producto senior en Google DeepMind y responsable de producto de Google AI Studio, afirmó en X que cada empresa que construye productos basados en IA debe establecer sus propios puntos de referencia personalizados para medir el rendimiento de los modelos de IA. Lo describió como una forma de

GateNewsHace56m

MediaTek consigue un gran pedido de Google del TPU de octava generación. ¡La fermentación de ASIC impulsa a tres acciones concepto que se verán beneficiadas!

Mediatek ya se ha incorporado a la cadena de suministro de chips de entrenamiento de la 8.ª generación de TPU de Google, encargándose del diseño de I/O Die, y además adopta el empaquetado TSMC N3P y CoWoS-S, lo que muestra que ha alcanzado un nivel de diseño de AI ASIC de gama alta. Se prevé que este año los ingresos por ASIC superen los 1000 millones de dólares, y que el volumen de envíos de TPU llegue a tener la posibilidad de alcanzar el millón de unidades para 2027; la cadena de suministro taiwanesa, como King Yuan Electronics, FineTek y Hong Jing, entre otras, también se beneficiará, y el mercado se irá enfocando gradualmente en el futuro de la colaboración por especialización y la integración heterogénea con chiplets.

ChainNewsAbmediahace1h

RE:AI de Singtel se asocia con Mistral AI para desarrollar infraestructura de IA en Singapur

Mensaje de Gate News, 27 de abril — Singtel Group anunció que RE:AI, su unidad de infraestructura digital con sede en Singapur, se ha asociado con Mistral AI para respaldar capacidades de IA para industrias en Singapur. La asociación se centrará en co-desarrollar infraestructura y soluciones de IA para los sectores de servicios financieros

GateNewshace1h

Los YZi Labs de He Yi invierten en una empresa china de modelos de lenguaje de IA

Mensaje de Gate News, 27 de abril — He Yi, junto con la oficina familiar YZi Labs de Changpeng Zhao, ha invertido en una empresa china de modelos de lenguaje de gran tamaño de inteligencia artificial; lo reveló durante una reunión privada de KOL en el Hong Kong Web3 Carnival. El nombre específico de la empresa en la que se invirtió no se dio a conocer

GateNewshace1h

OpenAI se asocia con MediaTek y Qualcomm para desarrollar un procesador de IA para teléfonos inteligentes; Foxconn Connector comenzará la producción en 2028

Mensaje de Gate News, 27 de abril — OpenAI colabora con MediaTek y Qualcomm para desarrollar procesadores de teléfonos inteligentes, según un análisis de la cadena de suministro del analista de Tianfeng International Securities Ming-Chi Kuo. Foxconn Connector (Luxshare Precision) actuará como el socio exclusivo de diseño de sistema y

GateNewshace1h

MiniMax-W Cotizada en Hong Kong Cae Más de 14%, Zhipu Baja Más de 6% en el Lanzamiento del Modelo de DeepSeek

Mensaje de Gate News, 27 de abril: MiniMax-W, cotizada en Hong Kong, cayó más de un 14% intradía, mientras que Zhipu bajó más de un 6% durante la misma sesión. La caída siguió al lanzamiento de un nuevo modelo de DeepSeek el viernes y a su anuncio de ofertas promocionales por tiempo limitado el

GateNewshace1h
Comentar
0/400
Sin comentarios