Mensaje de Gate News, 25 de abril — DeepSeek lanzó versiones de vista previa de V4-Pro y V4-Flash el 24 de abril, ambos modelos de código abierto con ventanas de contexto de un millón de tokens. V4-Pro presenta 1,6 billones de parámetros totales, pero activa solo 49 mil millones por pasada de inferencia usando una arquitectura Mixture-of-Experts. V4-Flash tiene 284 mil millones de parámetros totales con 13 mil millones activos.
Los precios son significativamente más bajos que los de la competencia: V4-Pro cuesta $1.74 por millón de tokens de entrada y $3.48 por millón de tokens de salida—aproximadamente un 98% menos que el GPT-5.5 Pro de OpenAI ($30 input, $180 output) y alrededor de una vigésima parte del costo de Claude Opus 4.7. V4-Flash se fija en $0.14 para entrada y $0.28 para salida por cada millón de tokens. Ambos modelos son de código abierto bajo la licencia MIT y pueden ejecutarse localmente de forma gratuita.
DeepSeek logró mejoras de eficiencia mediante dos nuevos mecanismos de atención: Compressed Sparse Attention y Heavily Compressed Attention, que reducen los costos de cómputo al 27% del predecesor V4-Pro (V3.2) y al 10% para V4-Flash. La compañía entrenó V4 en parte con chips Huawei Ascend, eludiendo las restricciones de exportación de EE. UU. sobre procesadores Nvidia avanzados. DeepSeek indicó que, una vez que entren en línea 950 nuevos supernodos más tarde en 2026, los precios bajarán aún más.
En benchmarks de rendimiento, V4-Pro-Max ocupa el primer lugar en Codeforces competitive programming (3,206 puntos, ubicándose alrededor del puesto 23 entre los concursantes humanos) y obteniendo 90.2% en problemas de matemáticas de Apex Shortlist frente al 85.9% de Claude Opus 4.6. Sin embargo, se queda atrás en benchmarks de multitarea: MMLU-Pro (87.5% frente al 91.0% de Gemini-3.1-Pro) y Humanity’s Last Exam (37.7% frente al 44.4%). En tareas de contexto largo, V4-Pro lidera a los modelos de código abierto pero pierde frente a Claude Opus 4.6 en pruebas de recuperación MRCR.
V4-Pro introduce “pensamiento intercalado,” lo que permite que los flujos de trabajo de agentes conserven el contexto de razonamiento a través de múltiples llamadas a herramientas sin vaciarlo entre pasos. Ambos modelos admiten integraciones de programación con Claude Code y OpenCode. Según la encuesta a desarrolladores de DeepSeek de 85 usuarios, el 52% dijo que V4-Pro estaba listo como su agente de codificación predeterminado, y el 39% se inclinó por adoptarlo. Los endpoints antiguos deepseek-chat y deepseek-reasoner se retirarán el 24 de julio de 2026.
Artículos relacionados
Ejecutivo de Google DeepMind: cada empresa de productos de IA debe crear puntos de referencia personalizados
MediaTek consigue un gran pedido de Google del TPU de octava generación. ¡La fermentación de ASIC impulsa a tres acciones concepto que se verán beneficiadas!
RE:AI de Singtel se asocia con Mistral AI para desarrollar infraestructura de IA en Singapur
Los YZi Labs de He Yi invierten en una empresa china de modelos de lenguaje de IA
OpenAI se asocia con MediaTek y Qualcomm para desarrollar un procesador de IA para teléfonos inteligentes; Foxconn Connector comenzará la producción en 2028
MiniMax-W Cotizada en Hong Kong Cae Más de 14%, Zhipu Baja Más de 6% en el Lanzamiento del Modelo de DeepSeek