"ESHARE V2"的搜尋結果
今天
04:57

小米揭露 MiMo-V2-Pro 訓練細節:1T 模型參數,部署數千台 GPU

Gate 新聞訊息,4 月 24 日——小米大型語言模型團隊負責人 羅福立 在一場深入採訪中披露,MiMo-V2-Pro 模型總計擁有 1 兆(trillion)參數,訓練過程需要數千台 GPU。她指出,1T 規模代表達成性能接近 Claude Opus 4.6 等級所需的最低門檻,並取得下一階段 AI 代理的競爭性入場票。
展開
05:14
1

Ramp Labs 提出多智能體記憶共享新方案,Token 消耗最高降低 65%

Ramp Labs 發布的研究成果「Latent Briefing」透過壓縮大模型 KV 快取,實現多智能體系統高效記憶共享,降低 Token 消耗並提高準確率。在 LongBench v2 測試中,該方法成功減少 Worker 模型 Token 消耗 65%,且提升整體準確率約 3 個百分點,壓縮耗時僅為 1.7 秒。這項技術在不同文件情境下表現優異。
展開