
El responsable del equipo del modelo a gran escala de Xiaomi, Luo Fuli, concedió una entrevista en profundidad en la plataforma Bilibili el 24 de abril (número de vídeo: BV1iVoVBgERD). La duración de la entrevista fue de 3,5 horas, y es la primera vez que expone de manera sistemática sus puntos de vista técnicos públicamente en calidad de responsable técnico. Luo Fuli afirmó que la competencia de la pista de los grandes modelos ha pasado de la era de Chat a la era de Agent, y señaló que la “autoevolución” será el evento clave para la AGI en el próximo año.
De la era de Chat a la era de Agent: juicios técnicos centrales

( Fuente: Bilibili )
Según lo expresado por Luo Fuli en la entrevista de Bilibili, señaló que el foco de la competencia de los grandes modelos en 2026 ya no se centrará en la calidad general del diálogo, sino en la capacidad de ejecución autónoma continua en tareas complejas. En la entrevista, dijo que, en la actualidad, los modelos líderes ya pueden optimizarse de forma autónoma en tareas específicas y mantener una ejecución estable durante 2 a 3 días, sin necesidad de ajustes por parte de humanos. En la entrevista también destacó que el avance de la capacidad de “autoevolución” indica que los sistemas de IA empiezan a contar con capacidad de autocorrección, y mencionó explícitamente las rutas tecnológicas de Anthropic y variables tecnológicas como Claude Opus 4.6, así como el impacto de estas en todo el ecosistema de IA.
Ajuste de la combinación de potencia de cómputo de Xiaomi y evaluación del desfase de Pre-train
Según lo revelado por Luo Fuli en la entrevista, Xiaomi ya ha realizado importantes ajustes en su estrategia de asignación de potencia de cómputo. Explicó que la combinación de potencia de cómputo que suele utilizar la industria es Pre-train:Post-train:Inference = 3:5:1, mientras que la estrategia actual de Xiaomi ya se ha ajustado a 3:1:1, comprimiendo de forma significativa la proporción de entrenamiento posterior y aumentando de forma simultánea la inversión de recursos en la etapa de inferencia.
En la entrevista, explicó que esta transformación se debe a la madurez de la estrategia Agent RL Scaling, por lo que el post-entrenamiento ya no necesita acumular grandes cantidades de potencia de cómputo, y que el aumento de recursos en el lado de la inferencia refleja la demanda de capacidades de respuesta inmediata en escenarios donde los Agents se llevan a la práctica.
En cuanto al problema del desfase generacional (desfase de Pre-train) en los grandes modelos nacionales, Luo Fuli dijo en la entrevista que esta brecha se ha reducido desde los 3 años del pasado hasta unos pocos meses, y que el foco de la estrategia actual se está moviendo hacia Agent RL Scaling. El recorrido profesional de Luo Fuli incluye el Instituto DAMO de Alibaba, la cuantitativa de Huanfang y DeepSeek (desarrollador principal de DeepSeek-V2); en noviembre de 2025 se incorporó a Xiaomi.
Especificaciones técnicas de la serie MiMo-V2 y ranking de código abierto
De acuerdo con el anuncio de la serie MiMo-V2 publicado por Xiaomi oficialmente el 19 de marzo de 2026, en esta ocasión se lanzan tres modelos de una sola vez:
MiMo-V2-Pro:parámetros totales (billones); habilita parámetros 42B, arquitectura de atención híbrida, compatibilidad con contexto de un millón, tasa de finalización de tareas 81%
MiMo-V2-Omni:escenarios de Agent de modalidad completa
MiMo-V2-TTS:escenarios de síntesis de voz
Según el anuncio, MiMo-V2-Flash, que ya se ha liberado como código abierto, ocupa el segundo lugar en el ranking global de modelos de código abierto, con una velocidad de inferencia de 3 veces la de DeepSeek-V3.2.
Preguntas frecuentes
Cómo define Luo Fuli la “autoevolución” y por qué considera que es el evento más crucial para la AGI?
Según las declaraciones de Luo Fuli en su entrevista del 24 de abril de 2026 en Bilibili (BV1iVoVBgERD), en la entrevista señaló que, en la actualidad, los modelos líderes ya pueden optimizarse de forma autónoma en tareas específicas y ejecutar de manera estable durante 2 a 3 días sin necesidad de intervención humana, y calificó la “autoevolución” como el evento más crucial para el desarrollo de la AGI durante el próximo año.
Qué ajustes concretos hizo Xiaomi en la combinación de potencia de cómputo y cuál es la lógica detrás?
Según lo revelado por Luo Fuli en la entrevista, la combinación de potencia de cómputo de Xiaomi se ha ajustado de Pre-train:Post-train:Inference = 3:5:1, que se usa de forma habitual en la industria, a 3:1:1, comprimiendo de forma significativa la proporción de post-entrenamiento; explicó que este ajuste se debe a que, tras la madurez de la estrategia Agent RL Scaling, mejora la eficiencia del post-entrenamiento, y también a la demanda de capacidades de respuesta inmediata por parte de los escenarios donde se implementan Agents en el lado de inferencia.
Cuál es el ranking de código abierto y el rendimiento de velocidad de MiMo-V2-Flash?
Según el anuncio oficial de Xiaomi publicado el 19 de marzo de 2026, MiMo-V2-Flash, que ya está como código abierto, ocupa el segundo lugar en el ranking global de modelos de código abierto; la velocidad de inferencia es 3 veces la de DeepSeek-V3.2, y la tasa de finalización de tareas del modelo insignia MiMo-V2-Pro es del 81%.
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.
Artículos relacionados
Greg Brockman de OpenAI: la IA cambia del chat a la ejecución autónoma de tareas
Mensaje de Gate News, 27 de abril — Greg Brockman, presidente y cofundador de OpenAI, dice que la siguiente ola de inteligencia artificial trasladará a los usuarios de chatear con bots de IA a asignar tareas del mundo real. Este cambio exige que las empresas replanteen los flujos de trabajo operativos y establezcan nuevos protocolos para la seguridad, la gestión y los costos.
Brockman sostiene que la IA debe ir más allá de las interfaces de chat independientes e integrarse directamente en el software corporativo existente para resolver problemas de forma autónoma. Los modelos recientes han superado un umbral de utilidad, mejorando en la creación de presentaciones, hojas de cálculo y tareas basadas en el navegador con instrucciones mínimas. Sin embargo, otorgar a la IA esta libertad operativa introduce nuevos riesgos: los errores podrían escalar desde el envío de correos electrónicos incorrectos hasta modificaciones no autorizadas en bases de datos. Para gestionarlo, Brockman explica que los empleados pasarán de ejecutar tareas a supervisar flotas de agentes de IA, manteniéndose responsables mientras delegan los detalles operativos.
El desafío de la integración también se extiende a cómo los usuarios interactúan con sistemas de IA. Los modelos se están volviendo más intuitivos, infiriendo de forma activa los objetivos del usuario a partir del contexto en lugar de exigir instrucciones paso a paso. Brockman subraya que el foso competitivo no está en modelos individuales de IA, sino en el propio sistema integrado: comparable con construir un automóvil donde un motor superior aporta poco si el resto del vehículo no tiene calidad. OpenAI está invirtiendo en infraestructura interna y herramientas para desarrolladores para mantener esta ventaja.
La capacidad de cómputo y los costos representan otra restricción crítica. A medida que los agentes autónomos se escalan, exigen recursos sustanciales de servidor, generando tensión entre la caída de los costos de cómputo y el aumento de la demanda. Brockman señala que OpenAI ha reducido precios año tras año mientras mantiene márgenes positivos, pero advierte sobre un próximo "mundo de escasez de cómputo" a medida que el uso intensivo de agentes se acerque a los límites de tasa. La supervisión a nivel empresarial también es igual de vital; los departamentos de TI deben mantener visibilidad total de todos los agentes de IA desplegados dentro de las organizaciones, gestionando la seguridad, la seguridad (safety) y la observabilidad en cientos de miles de despliegues.
Compensando estas perspectivas optimistas, Gartner predijo en junio de 2025 que más del 40% de los proyectos de IA agentica se descartarán para finales de 2027 debido al aumento de costos y al valor empresarial poco claro, y que solo el 15% de las decisiones de trabajo diario se espera que se tomen de forma autónoma para 2028. Además, los precios de modelos de IA ajustados por calidad han caído un 80% en los últimos dos años a medida que surgieron modelos más pequeños y eficientes y se intensificó la competencia, lo que sugiere que la integración de flujos de trabajo y la gobernanza podrían volverse más defendibles que, por sí sola, la capacidad bruta del modelo.
GateNewsHace54m
El gran CEX lanza Smart Money Signal Suite con datos de 1.000+ traders
Mensaje de Gate News, 27 de abril — Una gran bolsa centralizada ha lanzado un "Smart Money Signal Suite" que integra participaciones en tiempo real, tasas de acierto y datos de ganancias/pérdidas de más de 1.000 traders populares. El kit, al que se accede a través del Agent Trade Kit de la plataforma, encapsula las señales de los traders como herramientas llamables por Agentes de IA.
GateNewshace1h
B.AI Actualiza la Infraestructura y Lanza Funciones Principales de Habilidades
Mensaje de Gate News, 27 de abril — B.AI anunció múltiples avances de producto y de ecosistema esta semana. La página de aterrizaje de BAIclaw recibió una revisión completa del diseño visual y de la interacción, con el soporte multilingüe del sitio web ampliado a 10 idiomas, fortaleciendo su usabilidad global.
En el frente de la infraestructura
GateNewshace1h
Los agentes de IA impulsan la demanda de pagos cripto; x402 procesa 165M transacciones
Mensaje de Gate News, 27 de abril — Jesse Pollak, un ejecutivo de un gran CEX, ha argumentado que los agentes de IA autónomos están creando un nuevo "centro de demanda" para los pagos cripto, lo que exige infraestructura de pagos nativa de software. El 20 de abril, se anunció que el ecosistema x402 había procesado más de 165
GateNewshace2h
¡La agencia de Cursor AI causó un error! Una sola línea de código vació el almacén de datos de la empresa en 9 segundos; la seguridad fue cuestionada y quedó en puro discurso.
El fundador de PocketOS, Jer Crane, dijo que el agente de Cursor AI ejecutó por su cuenta el mantenimiento en un entorno de pruebas, abusando de un token de API personalizado para agregar o eliminar dominios, e inició una orden de eliminación contra la API GraphQL de Railway. En 9 segundos, los datos y las instantáneas del mismo clúster se destruyeron por completo; lo más reciente que se puede restaurar es hasta tres meses atrás. El agente admitió haber violado las normas de operaciones irreversibles, no haber leído la documentación técnica, y no haber verificado el aislamiento del entorno, entre otras; las víctimas fueron clientes del sector de alquiler de coches. Las reservas y los datos desaparecieron por completo, y la conciliación de cuentas requirió mucho tiempo. Crane propuso cinco reformas: confirmación manual, permisos de API de granularidad fina, separación entre copias de seguridad y datos principales, SLA público y mecanismos de imposición a nivel subyacente.
ChainNewsAbmediahace2h
Alibaba lanza el modelo de código abierto AgenticQwen de PAI: la versión 8B se acerca al rendimiento de 235B mediante volantes de doble dato
Mensaje de Gate News, 27 de abril — El equipo de PAI de Alibaba ha lanzado y ha publicado como código abierto AgenticQwen, un modelo lingüístico agentico de pequeña escala diseñado para aplicaciones industriales de llamadas a herramientas. El modelo viene en dos versiones: 8B y 30B-A3B. Entrenado mediante un innovador marco de aprendizaje por refuerzo de "doble volante de datos"
GateNewshace2h