布特林談安全與便利的悖論在區塊鏈中

近來,布特林對用戶資產保護與系統交互品質之間的關聯性提出了深刻的思考。根據Foresight News的報導,以太坊的創始人提出了一種創新的理解方式,重新思考傳統上將這兩個概念區分的做法。

安全作為用戶意圖的反映

布特林的核心思想是將安全重新定義為最小化用戶想要做的事情與系統實際發生的事情之間的偏差。這一觀點與傳統將安全視為單純防禦攻擊的理解大不相同。

在他看來,用戶體驗也可以用同樣的視角來描述——系統應該按照用戶的期望和願望運作。因此,安全與便利並非對立的概念,而是同一現象的兩個面向:正確解讀用戶意志。

定義意圖的實務困難

然而,現實遠比想像中複雜。布特林指出,理想的保護本質上是無法達成的,原因在於用戶意圖的本質性困難。舉個簡單的例子:向另一個用戶轉帳1 ETH。這看似是一個明確的行為,但系統該如何確定收款人的身份?用數學方式描述“發送1 ETH給Bob”是不可能的,因為“Bob”這個概念需要語境理解。

更複雜的是隱私保護的問題。如果用戶希望隱藏自己的活動,系統又該如何防止元數據洩露?有時候,元數據的泄露比破解加密更能有效揭示信息,這完美展現了用戶真實意圖判定的模糊性。

基於冗餘的多層解決方案

認識到這一不可解的問題後,布特林提出了一個實用的方法:系統應允許用戶用多種互補的方式表達其意圖,只有當所有這些表達一致時,行動才會被執行。

現有的密碼學和軟體工具已經很好地體現了這一邏輯:

  • 類型系統 在程式設計中防止各類錯誤
  • 形式驗證 用數學證明程式碼的正確性
  • 交易模擬 讓用戶預先看到結果
  • 事後驗證 在交易完成後檢查異常
  • 多簽和社會恢復機制 需要多方同意
  • 支出限制與異常警示 降低資產被盜的風險

這些機制各自獨立運作,但結合起來形成一層由冗餘策略構成的保護層。

大型語言模型(LLM)作為意圖理解工具

布特林提出了一個意想不到的解決方案:大型語言模型(LLM)可以作為“用戶意圖的模擬器”。普通的LLM接近人類的常識,而針對特定用戶調整的模型則能更好反映其個人目標與習慣。

但布特林也發出重要警告:僅依賴LLM是危險的。相反,應將語言模型作為一個額外的視角,來增強多層防護的效果,進一步提高冗餘性。

從理論到實踐

布特林的思考與早期人工智慧安全領域的問題相呼應,當時專家也面臨類似的挑戰——如何界定與控制系統的目標。他的做法展示了,在區塊鏈技術中,安全的關鍵不在於絕對的保障,而在於建立多層交疊的檢查與控制機制,共同降低風險至可接受的水平。

ETH-4.97%
查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский язык
  • Français
  • Deutsch
  • Português (Portugal)
  • ภาษาไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)