
A responsável da equipe de Modelos de Grande Escala da Xiaomi, Luo Fuli, concedeu uma entrevista aprofundada na plataforma Bilibili em 24 de abril (ID do vídeo: BV1iVoVBgERD). A duração da entrevista foi de 3,5 horas, e foi a primeira vez que ela apresentou de forma sistemática suas opiniões técnicas publicamente como responsável técnica. Luo Fuli disse que a competição em caminhos de modelos de grande escala já passou da era do Chat para a era dos Agents e apontou que “autoevolução” será o principal evento para a AGI no próximo ano.
Da era do Chat para a era dos Agents: julgamentos técnicos centrais

(Fonte: Bilibili)
Com base no que Luo Fuli disse na entrevista do Bilibili, ela apontou que, em 2026, o foco da competição por modelos de grande escala mudará de qualidade geral de diálogo para capacidade de execução autônoma contínua em tarefas complexas. Na entrevista, ela afirmou que, atualmente, os modelos de ponta já conseguem fazer otimização autônoma em tarefas específicas e continuar executando de forma estável por 2 a 3 dias, sem necessidade de intervenção humana para ajustes. Na entrevista, ela enfatizou que a突破 da capacidade de “autoevolução” significa que os sistemas de IA começam a ter capacidade de auto-correção, e citou o caminho técnico da Anthropic e variáveis técnicas como o Claude Opus 4.6, bem como o impacto dessas variáveis em todo o ecossistema de IA.
Ajuste da alocação de poder computacional da Xiaomi e avaliação da defasagem do Pre-train
De acordo com o que Luo Fuli revelou na entrevista, a Xiaomi já fez ajustes importantes em sua estratégia de alocação de poder computacional. Ela explicou que a alocação de poder computacional normalmente usada na indústria é Pre-train:Post-train:Inference = 3:5:1, enquanto a estratégia atual da Xiaomi já foi ajustada para 3:1:1, comprimindo significativamente a proporção de pós-treinamento e, ao mesmo tempo, elevando o investimento de recursos na fase de inferência.
Na entrevista, ela explicou que essa mudança se deve ao amadurecimento da estratégia Agent RL Scaling: com isso, o pós-treinamento não precisa mais empilhar grandes quantidades de poder computacional, e o aumento de recursos na ponta de inferência reflete a necessidade de capacidade de resposta imediata nos cenários em que o Agent vai para o mundo real.
Quanto ao problema da defasagem de gerações do Pre-train em modelos de grande escala na China continental, Luo Fuli disse na entrevista que essa diferença já foi reduzida de 3 anos no passado para alguns meses, e que o foco atual da estratégia está se movendo em direção ao Agent RL Scaling. A trajetória profissional de Luo Fuli inclui o Instituto DAMO da Alibaba, a empresa de quantificação Huanfang e a DeepSeek (desenvolvedores centrais do DeepSeek-V2). Em novembro de 2025, ela se juntou à Xiaomi.
Especificações técnicas da série MiMo-V2 e ranking de open source
De acordo com o comunicado da Xiaomi de 19 de março de 2026 sobre a série MiMo-V2, desta vez foram lançados três modelos de uma só vez:
MiMo-V2-Pro:parâmetros totais, com parâmetros habilitados em 42B, arquitetura de atenção híbrida, suporte a contexto de milhão, taxa de conclusão de tarefas 81%
MiMo-V2-Omni:cenários de Agent multimodal
MiMo-V2-TTS:cenários de síntese de voz
Conforme o comunicado, o MiMo-V2-Flash, que já foi open source, ficou em segundo lugar no ranking global de modelos open source, com a velocidade de inferência atingindo 3 vezes a do DeepSeek-V3.2.
Perguntas frequentes
Como Luo Fuli define “autoevolução” e por que ela acredita que é o evento mais crucial para a AGI?
De acordo com o que Luo Fuli declarou na entrevista de 24 de abril de 2026 na Bilibili (BV1iVoVBgERD), ela apontou na entrevista que, atualmente, os modelos de ponta já conseguem fazer otimização autônoma em tarefas específicas e executar de forma estável por 2 a 3 dias sem precisar de intervenção humana, e classificou a “autoevolução” como o evento mais crucial para o desenvolvimento de AGI no próximo ano.
Que ajustes específicos a Xiaomi fez na alocação de poder computacional e qual é a lógica por trás disso?
Com base no que Luo Fuli revelou na entrevista, a proporção de alocação de poder computacional da Xiaomi foi ajustada de Pre-train:Post-train:Inference = 3:5:1 usada tradicionalmente pela indústria para 3:1:1, comprimindo significativamente a proporção de pós-treinamento; ela explicou que esse ajuste decorre do aumento da eficiência do pós-treinamento após o amadurecimento da estratégia Agent RL Scaling, e da necessidade de capacidade de resposta imediata do lado de inferência nos cenários em que o Agent é implementado.
Qual é o ranking de open source e o desempenho de velocidade do MiMo-V2-Flash?
De acordo com o comunicado oficial da Xiaomi divulgado em 19 de março de 2026, o MiMo-V2-Flash, que já foi open source, ficou em segundo lugar no ranking global de modelos open source; a velocidade de inferência é 3 vezes a do DeepSeek-V3.2, e a taxa de conclusão de tarefas da versão topo de linha MiMo-V2-Pro é de 81%.
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o
Aviso Legal.
Related Articles
Agentes de IA impulsionam a demanda por pagamentos em cripto, x402 processa 165M de transações
Mensagem do Gate News, 27 de abril — Jesse Pollak, executivo de uma grande CEX, argumentou que agentes autônomos de IA estão criando um novo "centro de demanda" para pagamentos em cripto, exigindo infraestrutura de pagamentos nativa de software. Em 20 de abril, foi anunciado que o ecossistema x402 processou mais de 165
GateNews54m atrás
O agente da Cursor AI deu problema! Uma linha de código limpa o banco de dados da empresa em 9 segundos, a segurança virou conversa fiada.
Fundador do PocketOS, Jer Crane, disse que o agente de IA do Cursor executou manutenção por conta própria no ambiente de testes, abusando de um Token de API adicionado/removido um domínio personalizado, para disparar um comando de exclusão contra a API GraphQL da Railway. Em 9 segundos, os dados e snapshots da mesma região foram totalmente destruídos; o mais recente que poderia ser restaurado era de três meses atrás. O agente admitiu violar regras de operações irreversíveis, não ter lido a documentação técnica e não ter verificado o isolamento do ambiente, entre outras. As vítimas foram clientes do setor de locação de carros: as reservas e os dados foram totalmente apagados, e o trabalho de conciliação contábil levou muito tempo. Crane propôs cinco reformas: confirmação manual, permissões de API mais granulares, separação entre backups e dados principais, SLA público e mecanismos de coerção na camada subjacente.
ChainNewsAbmedia1h atrás
Alibaba lança em código aberto o modelo AgenticQwen: versão 8B se aproxima do desempenho de 235B via dual data flywheels
Mensagem da Gate News, 27 de abril — A equipe da PAI da Alibaba lançou e disponibilizou em código aberto o AgenticQwen, um modelo de linguagem agentic de pequena escala projetado para aplicações industriais de chamada de ferramentas. O modelo vem em duas versões: 8B e 30B-A3B. Treinado por meio de uma inovadora estrutura de aprendizado por reforço "dual data flywheel"
GateNews1h atrás
DeepSeek V4 Pro no Ollama Cloud: Claude Code em um clique
De acordo com os tweets da Ollama, o DeepSeek V4 Pro foi lançado em 4/24 e já foi adicionado ao diretório da Ollama em modo de nuvem, sendo possível chamá-lo com apenas um comando para utilizar ferramentas como Claude Code, Hermes, OpenClaw, OpenCode, Codex etc. O V4 Pro tem 1.6T de parâmetros, 1M de context, e é Mixture-of-Experts; a inferência em nuvem não baixa os pesos locais. Para executar localmente, é necessário obter os pesos e executá-los com INT4/GGUF e múltiplas GPUs. Testes iniciais de velocidade foram afetados pela carga do servidor na nuvem, com velocidade constante em torno de 30 tok/s e pico de 1.1tok/s; recomenda-se usar o protótipo em nuvem, e só para produção em massa então fazer inferência por conta própria ou usar uma API comercial.
ChainNewsAbmedia2h atrás
UB (Unibase) sobe 14,96% em 24 horas
Notícia da Gate, 27 de abril: segundo o monitoramento de mercado da Gate, no momento da publicação, UB (Unibase) está cotado a US$ 0.0491; em 24 horas, subiu 14.96%, atingindo a máxima de US$ 0.0534 e recuando para a mínima de US$ 0.0423. O volume de negociação em 24 horas chegou a US$ 3.9667 milhões. A capitalização de mercado atual é de aproximadamente US$ 123 milhões.
A Unibase é uma camada de memória descentralizada de IA de alto desempenho, fornecendo memória de longo prazo e interoperabilidade entre plataformas para agentes de IA, permitindo que eles memorizem, colaborem e se aprimorem de forma autônoma. A Unibase tem como objetivo construir a internet de agentes abertos, apoiando a colaboração contínua de agentes inteligentes entre ecossistemas, capacitando desenvolvedores a criarem as próximas aplicações de IA.
Esta notícia não constitui recomendação de investimento; ao investir, considere os riscos de volatilidade do mercado.
GateNews2h atrás
Guo Mingqián: A OpenAI vai fazer um celular com agentes de IA; MediaTek, Qualcomm e Luxshare Precision se tornam uma cadeia de suprimentos fundamental
Guo Mingchi alega que a OpenAI está em parceria com a MediaTek, a Qualcomm e a Luxshare Precision para desenvolver um celular com AI Agent, com previsão de produção em massa em 2028. O novo telefone terá como foco a conclusão de tarefas; o agente de IA entenderá e executará as necessidades, combinando computação na nuvem e no dispositivo, com ênfase em sensores e entendimento de contexto. A lista de especificações e da cadeia de suprimentos deverá ser definida entre 2026 e 2027; se isso se concretizar, ou se trouxer um novo ciclo de troca de celulares para o mercado de ponta, a Luxshare tem chances de se tornar a principal beneficiária.
ChainNewsAbmedia2h atrás