20B 小模型的搜尋能力追平 GPT-5 與 Opus:向量資料庫 Chroma 開源 Agent 搜尋模型 Context-1

区块律动

據 1M AI News 監測,開源向量數據庫 Chroma 發布 Context-1,一個 200 億參數的智能體搜索模型,專門用於多輪檢索任務。模型權重以 Apache 2.0 協議開源,合成數據生成管線代碼同步公開。

Context-1 的定位是檢索子代理(retrieval subagent):它不直接回答問題,而是通過多輪搜索為下游推理模型返回一組支撐文檔。核心技術是「自編輯上下文」(self-editing context),即模型在搜索過程中主動丟棄不相關的文檔片段,在有限的上下文窗口內為後續搜索騰出空間,避免上下文膨脹導致的性能退化。

訓練分兩階段:先用 Kimi K2.5 等大模型生成 SFT 軌跡做監督微調熱身,再通過強化學習(基於 CISPO 算法)在 8000 多個合成任務上訓練。獎勵設計採用課程機制,早期重召回鼓勵廣泛探索,後期逐步轉向精確度鼓勵選擇性保留。基座模型為 gpt-oss-20b,使用 LoRA 適配,推理時以 MXFP4 量化在 B200 上運行,吞吐量達 400-500 token/s。

在 Chroma 自建的四個領域基準(網頁、金融、法律、郵件)和公開基準(BrowseComp-Plus、SealQA、FRAMES、HotpotQA)上,Context-1 的 4 路並行版本在「最終答案命中率」指標上與 GPT-5.2、Opus 4.5、Sonnet 4.5 等前沿模型持平或接近,例如在 BrowseComp-Plus 上達到 0.96(Opus 4.5 為 0.87,GPT-5.2 為 0.82),而成本和延遲僅為後者的幾分之一。值得注意的是,該模型僅在網頁、法律和金融數據上訓練,但在未參與訓練的郵件領域同樣表現出顯著提升,顯示搜索能力的跨領域遷移性。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言