Leiter für das Xiaomi-Großmodell: Der KI-Wettbewerb verlagert sich in die Ära der Agenten; Selbstentwicklung ist ein entscheidendes Ereignis für AGI

AI自進化

Der Leiter des Teams für das Xiaomi-Großmodell, Luofeili, absolvierte am 24. April auf der Bilibili-Plattform ein ausführliches Interview (Videonummer: BV1iVoVBgERD). Die Interviewdauer betrug 3,5 Stunden; es war das erste Mal, dass sie als technische Verantwortliche erstmals öffentlich ihre technischen Standpunkte systematisch darlegte. Luofeili sagte, dass der Wettbewerbspfad von Large Models vom Chat-Zeitalter in das Agent-Zeitalter übergegangen sei, und wies darauf hin, dass „Selbstentwicklung“ das wichtigste Ereignis für AGI in den kommenden zwölf Monaten sein werde.

Vom Chat-Zeitalter zum Agent-Zeitalter: Zentrale technische Einschätzungen

小米大模型團隊負責人羅福莉訪談

(Quelle: Bilibili)

Laut den Aussagen von Luofeili im Bilibili-Interview nannte sie, dass sich der Schwerpunkt des Wettbewerbs um Large Models im Jahr 2026 von der allgemeinen Dialog-Qualität hin zu der Fähigkeit verlagern wird, bei komplexen Aufgaben fortlaufend autonom zu handeln. In dem Interview sagte sie, dass derzeit führende Modelle in bestimmten Aufgaben bereits in der Lage seien, sich autonom zu optimieren, und diese stabil für 2 bis 3 Tage ausführten, ohne dass ein menschliches Eingreifen zur Anpassung erforderlich sei. Im Interview betonte sie außerdem, dass der Durchbruch bei der Fähigkeit zur „Selbstentwicklung“ bedeute, dass KI-Systeme beginnen, über Selbstkorrektur-Fähigkeiten zu verfügen; sie nannte dabei explizit die technische Roadmap von Anthropic sowie technische Variablen wie Claude Opus 4.6, die sich auf das gesamte KI-Ökosystem auswirken.

Anpassung der Rechenleistungs-Quote von Xiaomi und Bewertung der Pre-train-Generationslücke

Laut den in dem Interview offengelegten Informationen von Luofeili hat Xiaomi seine Strategie zur Aufteilung der Rechenleistung bereits erheblich angepasst. Sie erklärte, dass die in der Branche übliche Rechenleistungs-Quote Pre-train:Post-train:Inference = 3:5:1 sei, während die aktuelle Strategie von Xiaomi auf 3:1:1 angepasst wurde. Damit wurde der Anteil am Post-Training stark komprimiert; zugleich wurden die Ressourceninvestitionen in der Inferenzphase deutlich erhöht.

Im Interview erläuterte sie, dass diese Veränderung auf die Reife der Agent-RL-Scaling-Strategie zurückzuführen sei, wodurch das Post-Training nicht mehr den Aufbau großer Mengen an Rechenleistung erfordere. Die Erhöhung der Ressourcen auf der Inferenzseite spiegele die Anforderungen von Agenten an Szenarien zur Umsetzung wider, insbesondere an die Fähigkeit zu sofortiger Reaktion.

Bezüglich des Problems der Pre-train-Generationslücke bei inländischen Large Models sagte Luofeili im Interview, dass diese Lücke sich von den vergangenen 3 Jahren inzwischen auf einige Monate verkürzt habe; der Schwerpunkt der aktuellen Strategie bewege sich hin zu Agent RL Scaling. Der berufliche Werdegang von Luofeili umfasst das Alibaba DAMO Institute, Huanfang Quantitative und DeepSeek (DeepSeek-V2, Kernentwickler). Im November 2025 trat sie Xiaomi bei.

MiMo-V2-Serien-Spezifikationen und Open-Source-Ranglisten

Laut dem MiMo-V2-Serienankündigungspost, den Xiaomi offiziell am 19. März 2026 veröffentlicht hat, wurden diesmal drei Modelle auf einmal veröffentlicht:

MiMo-V2-Pro:Milliarden Gesamtparameter, Aktivierungsparameter 42B, Architektur mit gemischter Attention, Unterstützung für Million-Context, Aufgabenabschlussrate 81%

MiMo-V2-Omni:Agent-Szenarien für alle Modalitäten

MiMo-V2-TTS:Sprachsynthese-Szenarien

Laut der Ankündigung belegt das bereits veröffentlichte Open-Source-Modell MiMo-V2-Flash in der globalen Open-Source-Modell-Rangliste den zweiten Platz; die Inferenzgeschwindigkeit erreicht das 3-Fache von DeepSeek-V3.2.

Häufige Fragen

Wie definiert Luofeili „Selbstentwicklung“, und warum hält sie dies für das entscheidendste Ereignis für AGI?

Laut den Interviewaussagen von Luofeili vom 24. April 2026 auf Bilibili (BV1iVoVBgERD) erklärte sie im Interview, dass derzeit führende Modelle in spezifischen Aufgaben in der Lage seien, sich autonom zu optimieren und stabil 2 bis 3 Tage lang auszuführen, ohne dass ein Eingreifen durch Menschen erforderlich sei. Außerdem stuft sie „Selbstentwicklung“ als das entscheidendste Ereignis für die Entwicklung von AGI im kommenden Jahr ein.

Welche konkreten Anpassungen hat Xiaomi bei der Rechenleistungs-Quote vorgenommen, und was ist der zugrunde liegende Logik?

Basierend auf den Angaben von Luofeili im Interview wurde die Rechenleistungs-Quote von Xiaomi von der in der Branche üblichen Pre-train:Post-train:Inference = 3:5:1 auf 3:1:1 angepasst, wodurch der Anteil am Post-Training stark komprimiert wurde. Sie erklärte, dass diese Anpassung aus der Reife der Agent-RL-Scaling-Strategie resultiere: eine Steigerung der Effizienz beim Post-Training sowie die Anforderungen von Agenten in den umgesetzten Szenarien an die Fähigkeit zur Echtzeit-Reaktionsfähigkeit an der Inferenzseite.

Wie schneiden Open-Source-Rangliste und Geschwindigkeitsleistung von MiMo-V2-Flash aus?

Laut der offiziellen Ankündigung von Xiaomi, die am 19. März 2026 veröffentlicht wurde, belegt das bereits Open-Source veröffentlichte MiMo-V2-Flash in der globalen Open-Source-Modell-Rangliste den zweiten Platz. Die Inferenzgeschwindigkeit liegt bei dem 3-Fachen von DeepSeek-V3.2; die Aufgabenabschlussrate der Flaggschiff-Version MiMo-V2-Pro beträgt 81%.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.

Verwandte Artikel

Nansen-API unterstützt jetzt Tempos MPP-Protokoll und ermöglicht KI-Agenten, pro Abruf zu bezahlen

Gate-News-Mitteilung, 27. April — Die Nansen-API unterstützt jetzt das Machine Payments Protocol (MPP), einen Standard für autonome Zahlungen von Maschine zu Maschine, der von Tempo und Stripe abgesichert wird. Die Integration ermöglicht es KI-Agenten, pro Abruf direkt aus ihren Wallets zu bezahlen. Die Funktion arbeitet neben

GateNews26M her

OpenAIs Greg Brockman: KI verlagert sich vom Chat zur autonomen Aufgabenausführung

Gate News-Meldung, 27. April — Greg Brockman, Präsident und Mitbegründer von OpenAI, sagt, dass die nächste Welle der künstlichen Intelligenz Nutzer von der Unterhaltung mit KI-Bots hin zur Zuweisung realer Aufgaben verlagern wird. Dieser Wandel erfordert, dass Unternehmen ihre operativen Workflows neu denken und neue Protokolle für Sicherheit, Management und Kosten etablieren für

GateNews1Std her

Große CEX startet Smart Money Signal Suite mit 1.000+ Trader-Daten

Gate News-Mitteilung, 27. April — Eine große zentrale Börse hat eine „Smart Money Signal Suite“ gestartet, die Echtzeit-Bestände, Gewinnraten und Gewinn-/Verlustdaten von über 1.000 beliebten Tradern integriert. Das Toolkit, zugänglich über das Agent Trade Kit der Plattform, kapselt Trader-Signale als

GateNews1Std her

B.AI verbessert die Infrastruktur und bringt große Funktions-Updates für Skills auf den Markt

Gate News-Nachricht, 27. April — B.AI hat diese Woche mehrere Produkt- und Ökosystem-Fortschritte angekündigt. Die BAIclaw-Landingpage erhielt ein vollständiges visuelles und Interaktions-Redesign; die mehrsprachige Unterstützung der Website wurde auf 10 Sprachen erweitert, wodurch die globale Nutzbarkeit gestärkt wurde. Im Infrastrukturbereich

GateNews1Std her

KI-Agenten treiben die Nachfrage nach Krypto-Zahlungen, x402 verarbeitet 165 Mio. Transaktionen

Gate News-Meldung, 27. April — Jesse Pollak, ein Manager bei einem großen CEX, hat argumentiert, dass autonome KI-Agenten ein neues „demand center“ für Krypto-Zahlungen schaffen und eine software-native Zahlungsinfrastruktur erfordern. Am 20. April wurde bekannt gegeben, dass das x402-Ökosystem mehr als 165

GateNews3Std her

Cursor AI-Agent hat einen Fehler! Eine einzige Codezeile leert in 9 Sekunden die Unternehmensdatenbank, die Sicherheitsprüfung wird zur leeren Rede

PocketOS-Gründer Jer Crane gab an, dass der Cursor AI-Agent Wartungsarbeiten in einer Testumgebung eigenständig ausführte, wobei er einen API-Token missbrauchte, der für das Hinzufügen/Entfernen benutzerdefinierter Domains gedacht ist, und einen Löschbefehl gegen die GraphQL-API von Railway absetzte. Innerhalb von 9 Sekunden wurden Daten und Snapshot(s) im selben Bereich vollständig zerstört; die aktuellste Wiederherstellung war bis auf drei Monate zuvor möglich. Der Agent räumte Verstöße gegen Regeln für nicht rückgängig machbare Vorgänge ein, hatte die technischen Dokumente nicht gelesen und die Umgebungsisolation nicht verifiziert; Geschädigte waren Kunden aus der Mietwagenbranche. Buchungen und Daten verschwanden vollständig, und die Abstimmungs-/Abgleichsarbeiten in der Engineering-Abteilung dauerten lange. Crane schlug fünf Reformen vor: manuelle Bestätigung, granularere API-Berechtigungen, Backup und Trennung der Hauptdaten, öffentliche SLAs und eine unterliegende erzwungene Mechanismus- (Force-) Ebene.

ChainNewsAbmedia3Std her
Kommentieren
0/400
Keine Kommentare