
(來源:ZetaChain)
ZetaChain 於 1 月 27 日正式發佈 ZetaChain 2.0 架構,宣示技術重心從跨鏈敘事進一步擴展至 AI 應用層,並重新定位為專為 AI 服務的互操作性區塊鏈。
在 2.0 版本中,ZetaChain 聚焦於產業日益突出的痛點:AI 應用高度依賴單一模型及封閉後端,造成模型鎖定、擴展成本高昂,且使用者上下文資料難以自主掌控。ZetaChain 2.0 的目標,是讓開發者無需建置傳統後端基礎設施,即可打造可同時運行於多個 AI 模型的應用與 AI Agent,並在全球範圍內實現快速部署與商業化。
ZetaChain 2.0 的首項核心模組為 AI Portal。此層扮演統一的路由與執行入口,讓應用能於不同 AI 模型供應方間自由切換,無須受限於單一模型或生態。透過 AI Portal,開發者可將模型選擇、請求分配與執行策略進行抽象化處理。
系統內建可用性管理機制、模型回退(fallback)選項,以及針對成本與效能的動態最佳化策略,使應用能依據即時狀況選擇最合適的模型執行。此設計讓 AI 應用首次具備類跨鏈能力,模型間可自由替換、組合,且不影響使用者體驗。
另一項關鍵設計,是 Private Memory Layer(隱私記憶層)。這是一套建立於協議層的加密記憶系統,能安全保存使用者上下文資訊,支援跨會話、跨模型的 AI 體驗延續。
有別於傳統 AI 應用將上下文資料儲存於集中化後端,Private Memory Layer 以權限控管及加密機制為核心,確保僅有經使用者授權的應用或 AI Agent 才能存取相關記憶內容。此舉不僅降低資料外洩與濫用風險,也讓使用者擁有上下文資料成為預設,而非例外,重新定義 AI 應用中的資料主權。
隨著 2.0 架構正式上線,ZetaChain 亦同步推出首款建構於該層之上的 AI 應用 Anuma。Anuma 被定位為大型模型聚合型產品,目前已開放測試版本(beta),並提供公開候補名單,供用戶申請早期體驗。
Anuma 的核心特色,在於單一使用流程即可串接多個主流 AI 模型,使用者可於不同模型間自由切換,且不會遺失既有上下文;所有記憶資料皆遵循由用戶掌控、預設私密的設計原則。這也讓 Anuma 成為 ZetaChain 2.0 架構實際可行性的首個驗證案例。
若欲了解更多 Web3 內容,歡迎點擊註冊:https://www.gate.com/
ZetaChain 2.0 不僅是功能升級,更針對 AI 應用在跨模型運行與使用者隱私主權兩大痛點,提出系統性解決方案。透過 AI Portal 與 Private Memory Layer 的結合,ZetaChain 為開發者提供更自由的模型選擇,也讓使用者重新掌握自身上下文資料的控制權。隨著 Anuma 的推出,這套架構已由概念落實於實際應用,其未來在 AI Agent、自主應用及 Web3 生態的延展性,值得持續關注。





