จากการตรวจสอบของ 1M AI News เปิดตัวฐานข้อมูลเวกเตอร์โอเพนซอร์ส Chroma ได้ปล่อย Context-1 ซึ่งเป็นโมเดลค้นหาอัจฉริยะที่มีพารามิเตอร์ 20 พันล้าน ตัว โดยออกแบบมาเพื่อภารกิจการค้นหาหลายรอบ น้ำหนักโมเดลเปิดให้ใช้งานภายใต้สัญญาอนุญาต Apache 2.0 พร้อมกับโค้ดสายการสร้างข้อมูลสังเคราะห์ที่เผยแพร่พร้อมกัน
Context-1 มีจุดมุ่งหมายเป็นซับเอเจนต์การค้นหา (retrieval subagent): มันไม่ได้ตอบคำถามโดยตรง แต่จะส่งคืนชุดเอกสารสนับสนุนให้กับโมเดลการสรุปผลด้านล่างผ่านการค้นหาหลายรอบ เทคโนโลยีหลักคือ “บริบทที่แก้ไขเอง” (self-editing context) ซึ่งโมเดลจะคัดทอนส่วนที่ไม่เกี่ยวข้องออกระหว่างการค้นหา เพื่อเปิดพื้นที่ในหน้าต่างบริบทจำกัดสำหรับการค้นหาครั้งต่อไป เพื่อป้องกันการขยายตัวของบริบทที่อาจทำให้ประสิทธิภาพลดลง
การฝึกอบรมแบ่งเป็นสองช่วง: ช่วงแรกใช้โมเดลขนาดใหญ่เช่น Kimi K2.5 สร้างเส้นทาง SFT เพื่อการปรับแต่งแบบมีคำแนะนำ จากนั้นใช้การเรียนรู้เสริม (โดยอิงกับอัลกอริทึม CISPO) ฝึกบนภารกิจสังเคราะห์มากกว่า 8,000 ภารกิจ การออกแบบรางวัลใช้กลไกหลักสูตร โดยในช่วงแรกเน้นการเรียกคืนข้อมูลใหม่ๆ เพื่อส่งเสริมการสำรวจอย่างกว้างขวาง และในช่วงหลังค่อยๆ เปลี่ยนไปเน้นความแม่นยำและการเลือกเก็บข้อมูลอย่างมีเป้าหมาย โมเดลพื้นฐานคือ gpt-oss-20b โดยใช้ LoRA ในการปรับแต่ง และในระหว่างการสรุปผลจะใช้ MXFP4 ในการควอนตายซ์บน B200 เพื่อให้ได้อัตราการประมวลผล 400-500 โทเค็นต่อวินาที
ในสี่ชุดฐานข้อมูลเฉพาะด้านที่สร้างขึ้นเองของ Chroma (เว็บ, การเงิน, กฎหมาย, อีเมล) และฐานข้อมูลสาธารณะ (BrowseComp-Plus, SealQA, FRAMES, HotpotQA) เวอร์ชันแบบขนาน 4 ทางของ Context-1 ทำผลงานเทียบเท่าหรือใกล้เคียงกับโมเดลชั้นนำอย่าง GPT-5.2, Opus 4.5, Sonnet 4.5 ในตัวชี้วัด “อัตราการถูกต้องของคำตอบสุดท้าย” เช่น บน BrowseComp-Plus ทำได้ 0.96 (Opus 4.5 อยู่ที่ 0.87, GPT-5.2 อยู่ที่ 0.82) โดยมีต้นทุนและความล่าช้าน้อยกว่ารุ่นหลังเพียงไม่กี่เท่า สิ่งที่น่าสนใจคือ โมเดลนี้ฝึกเฉพาะบนข้อมูลเว็บ กฎหมาย และการเงินเท่านั้น แต่ก็แสดงผลลัพธ์ที่ดีขึ้นอย่างชัดเจนในด้านอีเมล ซึ่งไม่ได้ใช้ในการฝึกด้วย แสดงให้เห็นถึงความสามารถในการถ่ายโอนความรู้ข้ามสาขาอย่างมีประสิทธิภาพ