去年,委內瑞拉總統大選的預測市場合約成交額超過 600 萬美元。然而,在計票結束後,市場陷入兩難:政府宣布尼古拉斯·馬杜羅勝選,而反對派及國際觀察員則指控選舉舞弊。預測市場的合約結算究竟應該依據「官方資訊」(馬杜羅勝出),還是「權威報導共識」(反對派勝出)?
在委內瑞拉選舉事件中,觀察員指控包括無視規則、參與者「資金遭竊」,甚至將用以解決爭議合約的協議形容為高風險政治劇中的「集法官、陪審團與劊子手於一身」,以及「嚴重操控」。
這並非偶發事件,而是預測市場在擴展過程中面臨的最大瓶頸之一:合約結算。
這裡的利害關係極高。若結算機制合理,市場便能取得信任、吸引交易,價格也能成為社會具意義的訊號;一旦結算機制失誤,交易將變得令人沮喪且難以預測,參與者流失,流動性枯竭,價格也不再反映對穩定目標的準確預測,反而混雜了事件本身的機率與交易者對扭曲結算機制裁決方式的預期。
委內瑞拉爭議事件雖高調,但類似的小型失誤在各平台屢見不鮮:
本文將探討如何結合 LLM 與加密技術,打造難以被操控、準確且完全透明、公正中立的預測市場大規模結算方式。
類似問題同樣困擾金融市場。國際掉期與衍生品協會(ISDA)多年來一直在信用違約互換(CDS)市場——即當公司或國家發生債務違約時支付賠償的合約——中努力解決結算難題,其2024 年審查報告坦率揭示這些困難。由主要市場參與者組成的決策委員會投票決定是否發生信用事件,但流程因不透明、潛在利益衝突與結果不一致而備受批評,與 UMA 機制面臨的問題如出一轍。
根本問題相同:當鉅額資金取決於對模糊事件的判定時,任何結算機制都可能成為被操控目標,每一個模糊點都可能成為爆發點。
那麼,理想的結算機制應該具備哪些特性?
任何可行方案都必須同時滿足數項關鍵特性:
抗操控能力。如果對手能夠透過竄改維基百科、植入假新聞、賄賂預言機或利用流程漏洞影響結算,市場就變成了「誰更會操控」而非「誰更會預測」的遊戲。
合理準確性。機制需在大多數情況下得出正確結果。絕對準確在這個充滿模糊性的世界中不可能,但系統性錯誤或明顯失誤會摧毀公信力。
事前透明。交易者在下注前必須清楚結算機制如何運作。中途更改規則違背了平台與參與者間的基本契約。
公正中立。參與者必須相信機制不會偏袒任何交易者或結果。這也是讓大量 UMA 持有人結算自己下注合約的問題所在:即便他們行為公正,利益衝突的表象也會破壞信任。
人工委員會可滿足部分特性,但在抗操控、公正中立等方面,尤其在規模化時表現不佳。基於代幣的投票系統如 UMA 也有「巨鯨主導」和利益衝突等隱憂。
這正是 AI 發揮作用的空間。
目前在預測市場領域有一種日益流行的方案:採用大型語言模型(LLM)作為結算裁決者,並在合約建立時將具體模型與提示詞寫入區塊鏈。
基本架構如下:合約建立時,市場方不僅以自然語言明確結算標準,還指定具體的 LLM(含時間戳的模型版本)及判定結果的提示詞。
這一規範透過加密方式寫入區塊鏈。交易開啟時,參與者可完整審查結算機制——清楚將由哪個 AI 模型裁決、會收到哪些提示詞、能存取哪些資訊來源。
若不認可該機制,參與者可選擇不交易。
結算時,鏈上承諾的 LLM 依指定提示詞運行,存取規定資訊來源,進行裁決。輸出結果決定誰獲得收益。
這種方式可同時解決多項關鍵約束:
強力抗操控(但非絕對)。與維基百科頁面、小型新聞網站不同,你無法輕易竄改主流 LLM 的輸出。模型權重在承諾時即被鎖定。若要操控結算,對手必須腐蝕模型依賴的資訊來源,或提前很久「投毒」訓練資料——這比賄賂預言機或竄改地圖的成本與不確定性都高得多。
準確性提升。推理模型正快速進步,能勝任各類複雜任務,尤其可自主檢索網路資訊時,LLM 裁決者有望準確結算多數市場——相關實驗也在持續進行。
內建透明。整體結算機制在下注前即完全公開、可稽核。無中途變更規則,無主觀隨意判定,無幕後協商。參與者明明白白下注。
公正中立性顯著提升。LLM 對結果沒有經濟利益,無法被賄賂,也不持有 UMA 代幣。其偏見僅來自模型本身,而非相關方的臨時決策。
當然,LLM 裁決者也有侷限,詳見下文。
模型會出錯。LLM 可能誤讀新聞、臆造事實,或對結算標準應用不一致。但只要交易者知道下注時用的是哪個模型,就能將其特性納入定價。如果某模型處理模糊案例時有已知傾向,成熟交易者會據此調整策略。模型無需完美,只需可預測。
操控雖難但非不可能。如果提示詞指定特定新聞來源,對手可能嘗試向這些來源投放消息。對主流媒體而言,這種攻擊代價高昂,但對小型媒體則有可能實現——本質上是地圖竄改問題的變體。提示詞設計至關重要:依賴多元、冗餘資訊來源的結算機制更穩健,單點依賴則風險較高。
訓練資料投毒理論上可行。若對手資源充足,可能試圖影響 LLM 的訓練資料以左右未來裁決。但這需要極早部署,成本高、收益不確定,遠高於賄賂委員會成員。
LLM 裁決者多樣化會帶來協同難題。若不同市場創建者選擇不同 LLM 及提示詞,流動性將被分散,交易者難以橫向比較合約或整合資訊。標準化有助於集中流動性,但也應允許市場探索最佳模型與提示詞組合。最佳方案或許是:鼓勵創新實驗,同時推動社群逐步形成成熟預設選項。
總結來說:基於 AI 的結算機制本質上是用一組新問題(模型侷限、提示詞工程、資訊來源脆弱性)替換另一組舊問題(人為偏見、利益衝突、不透明),且新問題更易於處理。如何推進?平台應:
於低風險合約上試驗 LLM 結算,累積實際數據。哪些模型表現最佳?哪些提示詞結構最穩健?實際運作中有哪些失敗模式?
推動標準化。隨著最佳實踐浮現,社群應致力形成可作為預設選項的標準 LLM+提示詞組合。這不妨礙創新,但有助於流動性集中於成熟市場。
建構透明工具,例如讓交易者於交易前能輕鬆查閱完整結算機制——包括模型、提示詞與資訊來源的界面。結算規則不應藏於細則中。
持續治理。即便有 AI 裁決者,仍需人工做元決策:信任哪些模型、如何處理模型明顯出錯、何時更新預設選項。目標不是完全去除人工,而是將人類從臨時判決轉向系統性規則設定。
預測市場有助於我們理解這個複雜多變的世界,但其潛力取決於信任,而信任則仰賴公正的合約結算。結算機制失靈的後果我們已見過:混亂、憤怒、交易者離場。我曾見有人因結果違背預期而憤然退出預測市場,甚至發誓再也不用曾經喜愛的交易平台。這是錯失釋放預測市場價值與更廣泛應用的機會。
LLM 裁決者並非完美。但結合加密技術後,它們具備透明、中立、抗操控等人類機制難以實現的特性。在預測市場擴張速度快於治理機制演進的時代,這或許正是我們所需的答案。





