Moonshot AI 推出具備 300 代理蜂群能力的 Kimi K2.6,推進自主 AI 系統

Gate News 訊息,4 月 21 日——Moonshot AI 發布 Kimi K2.6,這是一款開源 AI 模型,針對其代理蜂群架構進行了重大升級,現在支援最多 300 個平行子代理——幾乎是其前身 K2.5 所支援的 100 個子代理的三倍。該模型可透過 Kimi.com、Kimi 應用程式、API 與 Kimi Code 存取,面向正在打造基於代理的工作流程與自動化工具的開發者。

K2.6 發布版本使協同步驟從 K2.5 的 1,500 步擴展至 4,000 步,讓更高程度的平行化與更快的執行速度能夠用於複雜的多領域任務。根據 Moonshot AI 的說法,該模型在跨 Rust、Go 與 Python 的長程程式碼編寫方面表現更佳,同時在前端開發、DevOps 作業與效能最佳化方面也具備更強能力。基準測試結果顯示其在 HLE 上達到最先進水準,使用工具 (54.0)、SWE-Bench Pro (58.6)、SWE-bench 多語言 (76.7)、BrowseComp (83.2),以及使用 Python 的 Math Vision (93.2)。

該模型引入一種「Skills」機制,將結構化文件——包含 PDF、電子表格與 Word 檔案——轉換為可重複使用的任務模板,並捕捉格式與推理模式,以供未來的工作流程使用。K2.6 被定位於自主使用案例,包括多步驟軟體工作流程、全棧式應用程式開發,以及持續監控任務;測試顯示,相較於較長的執行週期,其可靠性得到改善。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明

相關文章

大型 CEX 推出 Smart Money Signal Suite,整合 1,000+ 位交易者資料

Gate News 訊息,4 月 27 日 — 一家大型集中式交易所推出了「Smart Money Signal Suite」,該方案整合了來自超過 1,000 位熱門交易者的即時持倉、勝率以及損益資料。該工具包可透過平台的 Agent Trade Kit 存取,並將交易者訊號封裝為

GateNews3分鐘前

B.AI 升級基礎設施,推出重點技能功能

Gate 新聞訊息,4月27日——B.AI 本週宣布多項產品與生態系進展。本次 BAIclaw 登陸頁面進行了完整的視覺與互動改版,並將網站多語言支援擴展至 10 種語言,進一步強化其全球可用性。 在基礎設施方面

GateNews6分鐘前

AI 代理推动加密支付需求,x402 处理 165M 笔交易

Gate News 消息,4 月 27 日——大型 CEX 的高管 Jesse Pollak 表示,自主 AI 代理正在为加密支付创造一个新的 "需求中心",从而需要原生于软件的支付基础设施。4 月 20 日,据宣布 x402 生态系统已处理超过 165

GateNews1小時前

Cursor AI 代理出包!一行程式碼 9 秒清空公司資料庫,安全把關淪空談

PocketOS 創辦人 Jer Crane 指 Cursor AI 代理在測試環境自行執行維護,濫用一個新增/移除自訂網域的 API Token,向 Railway 的 GraphQL API 發動刪除指令。9 秒內資料與同區快照全毀,最新可還原到三個月前。代理人承認違反不可逆操作、未研讀技術文件、未驗證環境隔離等規範,受害者為租車業客戶,預約與資料全消失,對帳工程耗時長。Crane 提出五項改革:人工確認、細粒度 API 權限、備份與主資料分離、公開 SLA、底層強制機制。

鏈新聞abmedia1小時前

阿里巴巴PAI發布開源 AgenticQwen 模型:8B 版本通過雙數據飛輪接近 235B 性能

門戶消息,4月27日——阿里巴巴PAI團隊已發布並開源了 AgenticQwen,一款面向工業級工具調用應用的小規模代理式語言模型。該模型提供兩個版本:8B 與 30B-A3B。透過一種創新的 "雙數據飛輪"

GateNews1小時前

DeepSeek V4 Pro 上 Ollama Cloud:Claude Code 一鍵串接

根據 Ollama 推文,DeepSeek V4 Pro於4/24發布,已以雲端模式入 Ollama 目錄,僅一行指令即可呼叫 Claude Code、Hermes、OpenClaw、OpenCode、Codex 等工具。V4 Pro1.6T參、1M context,Mixture-of-Experts;雲端推論不下載本機權重。若要本地需自取權重並以 INT4/GGUF 與多卡 GPU 執行。早期測速受雲端負載影響,常態約30 tok/s,峰值1.1tok/s;建議以雲端原型,正式量產再自行推論或用商用 API。

鏈新聞abmedia2小時前
留言
0/400
暫無留言