Modelos nacionales dominan la lista, aumento explosivo en el uso de tokens de OpenRouter: programación e inteligencia artificial se convierten en puntos clave para la victoria

El uso de grandes modelos nacionales durante el período del Año Nuevo chino ha sido muy activo. Los datos semanales más recientes de OpenRouter muestran que el total de tokens de los diez principales modelos en la plataforma alcanza aproximadamente 8.700 billones, con modelos chinos dominando con 5.300 billones, lo que representa el 61%.

Los tres modelos con mayor volumen de llamadas en tokens esa semana son todos modelos nacionales, que son Minimax M2.5, Kimi K2.5 y GLM-5, con cambios respecto a la semana pasada de +197%, -20% y +158% respectivamente. Entre ellos, MiniMax M2.5 lidera con 2.45 billones de tokens, seguido por Kimi K2.5 con 1.21 billones, mientras que Zhipu GLM 5 y DeepSeek V3.2 ocupan el tercer y quinto lugar.

OpenRouter es la mayor plataforma de agregación de APIs de grandes modelos a nivel mundial, que ofrece a los desarrolladores una interfaz API unificada para acceder a cientos de modelos de lenguaje en todo el mundo. Sus funciones principales incluyen llamadas a múltiples modelos, optimización inteligente de rutas y clasificaciones de rendimiento transparentes, con el objetivo de resolver la complejidad de la integración de múltiples modelos y los bloqueos de los proveedores.

Según los datos de la plataforma, la programación (Coding) y los agentes inteligentes (Agent) se están convirtiendo en los dos principales focos de competencia para los grandes modelos.

El volumen total de llamadas ha aumentado significativamente en OpenRouter. La fuente oficial confirma que M2.5 ha impulsado una demanda adicional de llamadas en el rango de textos largos de 100K a 1M, que es precisamente el escenario típico de consumo en flujos de trabajo de agentes inteligentes.

En cuanto a volumen de tokens, los tres principales modelos nacionales en esta plataforma se centran en mejorar las capacidades de programación y la automatización de tareas de agentes (Agent), lo que representa un avance importante en la aplicación práctica de los modelos nacionales a principios de 2026.

MiniMax de Xiyu Technology lanzó el 13 de febrero el MiniMax M2.5, que afirma ser el primer modelo de nivel de producción diseñado nativamente para escenarios de agentes inteligentes. En solo siete días desde su lanzamiento, superó los 3.07 billones de tokens en llamadas, convirtiéndose en la opción preferida por los desarrolladores debido a su rendimiento sobresaliente en programación y flujos de trabajo de agentes, además de su bajo costo.

Moonshot AI lanzó el 27 de enero KimiK2.5, un modelo con arquitectura multimodal nativa capaz de gestionar hasta 100 “copias de agentes” en paralelo, aumentando la eficiencia en tareas complejas de 3 a 10 veces. Este modelo ocupa el primer lugar en varias listas específicas (como programación y llamadas a herramientas), con un volumen de llamadas mucho mayor que Gemini 3 y Claude. Según Pengpai News, en menos de un mes desde su lanzamiento, Kimi ha generado ingresos acumulados en más de 20 días que superan los ingresos totales de 2025, impulsados principalmente por el aumento de usuarios de pago globales y llamadas API, con un rápido crecimiento en usuarios internacionales de pago.

Zhipu lanzó el 12 de febrero GLM-5, un modelo con mayor escala de parámetros y mecanismo de atención dispersa, diseñado específicamente para tareas complejas de ingeniería de sistemas y agentes a largo plazo. Gracias a ventajas como ser gratuito y tener una ventana de contexto de 200K, su base de usuarios creció rápidamente tras su lanzamiento. Zhipu ha implementado medidas como limitaciones de ventas y aumentos de precios en su plan de programación, y en la víspera de Año Nuevo anunció en toda la red la búsqueda de “socios de computación”.

A medida que los escenarios de aplicación de los modelos de IA se profundizan, los usuarios pasan de preguntas simples a flujos de trabajo complejos, como reestructurar código, reescribir archivos, generar documentos, y la popularización de los modos de agentes, lo que ha llevado a una tendencia clara de “inflación” en el consumo de tokens.

A pesar de las mejoras en rendimiento, los modelos nacionales siguen destacando por su relación costo-beneficio. Por ejemplo, en comparación con Claude Opus 4.6, MiniMax M2.5 y Zhipu GLM-5 tienen ventajas de costos evidentes: en la fase de entrada, ambos modelos nacionales cuestan 0.3 dólares por millón de tokens, mientras que Claude Opus 4.6 cuesta hasta 5 dólares, aproximadamente 16.7 veces más; en la fase de salida, MiniMax M2.5 cuesta 1.1 dólares, GLM-5 2.55 dólares, y Claude Opus 4.6 alcanza los 25 dólares, siendo aproximadamente 22.7 y 9.8 veces más caros, respectivamente.

Estos modelos nacionales no reflejan completamente el volumen de llamadas en tokens de los fabricantes locales. Según Haitong International Securities, los datos muestran que el uso diario de tokens en los grandes modelos de Volcano Engine ha crecido de 20 billones a finales de 2024 a 63 billones a finales de 2025; los clientes externos de Alibaba Cloud también alcanzaron casi 5 billones de tokens diarios en 2025, con un objetivo de al menos 15-20 billones en 2026, y las operaciones internas planean aumentar de 16-17 billones a 100 billones diarios. A nivel de toda la industria, el consumo diario total de tokens en China fue de 100 mil millones a principios de 2024, superando los 30 billones en mitad de 2025, y en febrero de 2026, el consumo diario combinado de los modelos principales ya alcanzaba los 180 billones.

El último informe de Dongguan Securities indica que, con la mejora de las capacidades de programación y agentes inteligentes de los modelos nacionales, su volumen de llamadas ha aumentado significativamente, y los modelos nacionales en programación y agentes tienen potencial para igualar a los principales modelos globales, acelerando aún más la implementación de aplicaciones y el aumento en el consumo de tokens.

Anteriormente, Changjiang Securities afirmó que, con la maduración progresiva de los modelos de programación y multimodales, se espera que los escenarios de aplicación downstream se abran realmente, generando una gran demanda de tokens de alta calidad. Siguiendo la tendencia del desarrollo de la industria de IA en el extranjero, existe un retraso de aproximadamente dos años desde la inversión en capital hasta la explosión en la demanda de tokens. La inversión en IA por parte de grandes empresas nacionales comenzó en la segunda mitad de 2024, aproximadamente un año después que en el extranjero. Por lo tanto, los ingresos de los proveedores de nube nacionales ya están comenzando a crecer, y se espera que la verdadera explosión en la cantidad de tokens ocurra en 2026.

(Fuente: CaiLianShe)

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)