Série Xiaomi MiMo-V2.5 open source : 1T paramètres sous licence MIT, l'efficacité des tokens sur ClawEval dépasse GPT-5.4

Selon le suivi Beating, l’équipe MiMo de Xiaomi a open source la série de grands modèles MiMo-V2.5, comprenant deux modèles, tous deux sous licence MIT, supportant le déploiement commercial, la formation continue et le fine-tuning, avec une fenêtre de contexte atteignant 1 million de tokens. Parmi eux, le MiMo-V2.5-Pro est un modèle MoE purement textuel (architecture d’experts hybrides), avec un total de 1,02 trillion de paramètres et 42 milliards de paramètres activés ; le MiMo-V2.5 est un modèle multimodal natif, avec un total de 310 milliards de paramètres et 15 milliards de paramètres activés, supportant la compréhension du texte, des images, des vidéos et de l’audio.

Le MiMo-V2.5-Pro cible principalement les agents complexes et les tâches de programmation. Lors de l’évaluation ClawEval, le V2.5-Pro a atteint un niveau équivalent avec un taux de réussite de 64 %^3, en utilisant environ 70 000 tokens par trajectoire de tâche, soit environ 40 % à 60 % de moins que Claude Opus 4.6, Gemini 3.1 Pro et GPT-5.4. Le score SWE-bench Verified est de 78,9. Dans les cas présentés sur le blog officiel, le V2.5-Pro a réalisé de manière autonome un compilateur complet de SysY vers RISC-V dans le cadre du cours de principes de compilation de l’Université de Pékin, en 4,3 heures, avec 672 appels d’outils, obtenant un score parfait de 233/233 sur l’ensemble de test masqué.

Le MiMo-V2.5 est destiné aux scénarios d’agents multimodaux. Le modèle est équipé d’un encodeur visuel dédié (ViT de 729 millions de paramètres) et d’un encodeur audio (261 millions de paramètres), avec un score de 62,3 sur le sous-ensemble général Claw-Eval. Les deux modèles utilisent une architecture hybride d’attention à fenêtre glissante (SWA) et d’attention globale (GA), associée à un module de prédiction multi-token (MTP) à 3 couches (prédiction simultanée de plusieurs tokens pour accélérer l’inférence). Les poids ont été publiés sur Hugging Face.

En parallèle de la sortie open source, l’équipe MiMo a lancé le « Plan d’incitation aux créateurs de trillions de tokens Orbit », offrant gratuitement un quota total de 1 trillion de tokens à l’échelle mondiale pendant 30 jours. Les développeurs individuels, équipes et entreprises peuvent soumettre une demande via la page de l’événement. La période d’évaluation dure environ 3 jours ouvrables, et après approbation, les droits sont crédités sous forme de Token Plan ou de subventions, pouvant être directement utilisés avec des outils de programmation tels que Claude Code, Cursor, etc.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler