
Der Leiter des Teams für das Xiaomi-Großmodell, Luofeili, absolvierte am 24. April auf der Bilibili-Plattform ein ausführliches Interview (Videonummer: BV1iVoVBgERD). Die Interviewdauer betrug 3,5 Stunden; es war das erste Mal, dass sie als technische Verantwortliche erstmals öffentlich ihre technischen Standpunkte systematisch darlegte. Luofeili sagte, dass der Wettbewerbspfad von Large Models vom Chat-Zeitalter in das Agent-Zeitalter übergegangen sei, und wies darauf hin, dass „Selbstentwicklung“ das wichtigste Ereignis für AGI in den kommenden zwölf Monaten sein werde.

(Quelle: Bilibili)
Laut den Aussagen von Luofeili im Bilibili-Interview nannte sie, dass sich der Schwerpunkt des Wettbewerbs um Large Models im Jahr 2026 von der allgemeinen Dialog-Qualität hin zu der Fähigkeit verlagern wird, bei komplexen Aufgaben fortlaufend autonom zu handeln. In dem Interview sagte sie, dass derzeit führende Modelle in bestimmten Aufgaben bereits in der Lage seien, sich autonom zu optimieren, und diese stabil für 2 bis 3 Tage ausführten, ohne dass ein menschliches Eingreifen zur Anpassung erforderlich sei. Im Interview betonte sie außerdem, dass der Durchbruch bei der Fähigkeit zur „Selbstentwicklung“ bedeute, dass KI-Systeme beginnen, über Selbstkorrektur-Fähigkeiten zu verfügen; sie nannte dabei explizit die technische Roadmap von Anthropic sowie technische Variablen wie Claude Opus 4.6, die sich auf das gesamte KI-Ökosystem auswirken.
Laut den in dem Interview offengelegten Informationen von Luofeili hat Xiaomi seine Strategie zur Aufteilung der Rechenleistung bereits erheblich angepasst. Sie erklärte, dass die in der Branche übliche Rechenleistungs-Quote Pre-train:Post-train:Inference = 3:5:1 sei, während die aktuelle Strategie von Xiaomi auf 3:1:1 angepasst wurde. Damit wurde der Anteil am Post-Training stark komprimiert; zugleich wurden die Ressourceninvestitionen in der Inferenzphase deutlich erhöht.
Im Interview erläuterte sie, dass diese Veränderung auf die Reife der Agent-RL-Scaling-Strategie zurückzuführen sei, wodurch das Post-Training nicht mehr den Aufbau großer Mengen an Rechenleistung erfordere. Die Erhöhung der Ressourcen auf der Inferenzseite spiegele die Anforderungen von Agenten an Szenarien zur Umsetzung wider, insbesondere an die Fähigkeit zu sofortiger Reaktion.
Bezüglich des Problems der Pre-train-Generationslücke bei inländischen Large Models sagte Luofeili im Interview, dass diese Lücke sich von den vergangenen 3 Jahren inzwischen auf einige Monate verkürzt habe; der Schwerpunkt der aktuellen Strategie bewege sich hin zu Agent RL Scaling. Der berufliche Werdegang von Luofeili umfasst das Alibaba DAMO Institute, Huanfang Quantitative und DeepSeek (DeepSeek-V2, Kernentwickler). Im November 2025 trat sie Xiaomi bei.
Laut dem MiMo-V2-Serienankündigungspost, den Xiaomi offiziell am 19. März 2026 veröffentlicht hat, wurden diesmal drei Modelle auf einmal veröffentlicht:
MiMo-V2-Pro:Milliarden Gesamtparameter, Aktivierungsparameter 42B, Architektur mit gemischter Attention, Unterstützung für Million-Context, Aufgabenabschlussrate 81%
MiMo-V2-Omni:Agent-Szenarien für alle Modalitäten
MiMo-V2-TTS:Sprachsynthese-Szenarien
Laut der Ankündigung belegt das bereits veröffentlichte Open-Source-Modell MiMo-V2-Flash in der globalen Open-Source-Modell-Rangliste den zweiten Platz; die Inferenzgeschwindigkeit erreicht das 3-Fache von DeepSeek-V3.2.
Laut den Interviewaussagen von Luofeili vom 24. April 2026 auf Bilibili (BV1iVoVBgERD) erklärte sie im Interview, dass derzeit führende Modelle in spezifischen Aufgaben in der Lage seien, sich autonom zu optimieren und stabil 2 bis 3 Tage lang auszuführen, ohne dass ein Eingreifen durch Menschen erforderlich sei. Außerdem stuft sie „Selbstentwicklung“ als das entscheidendste Ereignis für die Entwicklung von AGI im kommenden Jahr ein.
Basierend auf den Angaben von Luofeili im Interview wurde die Rechenleistungs-Quote von Xiaomi von der in der Branche üblichen Pre-train:Post-train:Inference = 3:5:1 auf 3:1:1 angepasst, wodurch der Anteil am Post-Training stark komprimiert wurde. Sie erklärte, dass diese Anpassung aus der Reife der Agent-RL-Scaling-Strategie resultiere: eine Steigerung der Effizienz beim Post-Training sowie die Anforderungen von Agenten in den umgesetzten Szenarien an die Fähigkeit zur Echtzeit-Reaktionsfähigkeit an der Inferenzseite.
Laut der offiziellen Ankündigung von Xiaomi, die am 19. März 2026 veröffentlicht wurde, belegt das bereits Open-Source veröffentlichte MiMo-V2-Flash in der globalen Open-Source-Modell-Rangliste den zweiten Platz. Die Inferenzgeschwindigkeit liegt bei dem 3-Fachen von DeepSeek-V3.2; die Aufgabenabschlussrate der Flaggschiff-Version MiMo-V2-Pro beträgt 81%.
Verwandte Artikel
Nansen-API unterstützt jetzt Tempos MPP-Protokoll und ermöglicht KI-Agenten, pro Abruf zu bezahlen
OpenAIs Greg Brockman: KI verlagert sich vom Chat zur autonomen Aufgabenausführung
Große CEX startet Smart Money Signal Suite mit 1.000+ Trader-Daten
B.AI verbessert die Infrastruktur und bringt große Funktions-Updates für Skills auf den Markt
KI-Agenten treiben die Nachfrage nach Krypto-Zahlungen, x402 verarbeitet 165 Mio. Transaktionen
Cursor AI-Agent hat einen Fehler! Eine einzige Codezeile leert in 9 Sekunden die Unternehmensdatenbank, die Sicherheitsprüfung wird zur leeren Rede