人工智慧長期以來一直以規模為定義——更大的模型、更快的處理速度,以及龐大的數據中心。然而,越來越多的研究人員、投資者和從業者認為傳統的成長路徑正逐漸遇到天花板。AI正變得越來越資本密集,並受到物理限制的束縛,回報遞減的現象比許多人預期的更早出現。最新數據凸顯了這一轉變:預計到2030年,全球數據中心的用電需求將超過兩倍,這一激增相當於擴展整個工業部門;在美國,數據中心的用電預計到本十年末將增加超過100%。隨著AI經濟性收緊,數萬億美元的新投資和大量電網升級的需求逐漸浮現,這與技術在金融、法律和加密工作流程中的滲透同步進行。
重點摘要
與AI相關的能源需求正在加速,IEA預測到2030年數據中心的用電將超過兩倍,突顯出當前擴展範式的根本限制。
美國的數據中心用電量可能在2030年前激增超過100%,這對AI驅動的行業來說是一個重大的資源和基礎設施挑戰。
前沿AI訓練成本飆升,估計單次訓練可能超過10億美元,使推理和持續運營成為長期的主要開支。
規模擴大帶來的驗證負擔也在增加:隨著AI輸出增多,人類監督變得越來越重要,以防止錯誤擴散,例如在自動化反洗錢(AML)標記中的假陽性。
向認知或神經符號系統的架構轉變——強調推理、可驗證性和本地部署——提供了一條降低能耗並提升可靠性的途徑,優於純粹的暴力擴展。
區塊鏈支持的去中心化AI概念可能更廣泛地分散數據、模型和計算資源,潛在降低集中風險,並使部署更貼近本地需求。
情緒:中立
市場背景:AI與加密分析和去中心化金融(DeFi)工具的融合,正處於更廣泛的能源消耗、監管和自動決策治理的討論之中。隨著AI工具越來越多地監控鏈上活動、評估情緒和協助智能合約開發,行業面臨著性能、驗證和責任之間更緊密的聯繫。
為何重要
關於AI擴展的辯論並非理論性問題——它觸及高風險行業中AI部署的核心方式與場所。大型語言模型(LLMs)通過在海量文本中匹配模式來獲得流暢性,實現了令人印象深刻的能力,但未必具備堅實、可靠的推理能力。隨著這些系統逐漸嵌入法律流程、金融風險管理和加密操作中,錯誤輸出的後果變得越來越不能容忍且成本高昂。
訓練前沿AI模型仍是一項使命關鍵且昂貴的任務。獨立分析指出,訓練的累計成本可能非常高,可信的預估是單次訓練就可能超過10億美元。然而,更具影響力的是推理的持續成本——在大規模運行模型時,需保持低延遲、高正常運行時間和嚴格驗證的結果。無論是在市場還是加密領域,AI系統越來越多地用於監控鏈上活動、分析情緒、生成智能合約代碼、標記可疑交易和自動化治理決策;這帶來雙重風險:快速數據驅動的信號與誤導性信號的風險,可能錯誤配置資本或誤判風險。值得注意的是,自動化AML標記中的假陽性問題,展示了不可靠輸出如何浪費人力資源並侵蝕信任。
為應對這些壓力,討論焦點正從單純追求規模轉向強調推理和可驗證性的架構。認知AI和神經符號方法試圖將模式識別與結構化知識、規則和自我檢查相結合,旨在提供可用的推理軌跡和透明的決策過程,減少對暴力計算的依賴,並實現更可預測的能耗。早期示範表明,支持知識表示的本地或邊緣部署能讓控制權留在用戶和組織手中,而非託付給中心化、模糊的基礎設施。
去中心化AI模型——由多方貢獻數據、模型和計算資源——提供了另一條韌性之路。通過分散工作負載和監督,社群可以降低集中風險,並根據本地需求定制AI部署。在這個生態系統中,治理角色變得更加重要:平台必須支持審計、調整和互操作性,同時不損害安全性或性能。向更高層次推理能力的轉變,加上對可驗證結果的承諾,標誌著從單純追求規模的重大轉變。如果行業能在大規模運行認知架構方面取得突破,AI的經濟性或將改善——降低每次決策的能耗,也減輕人類操作者的驗證負擔。
在加密領域,這一演變尤為重要。AI在鏈上分析、反欺詐、智能合約工具的可靠性將影響投資者信心和市場完整性。未來的路徑不僅是更大的模型,更是更智能的系統——這些系統的內部運作可以被審查、質疑和改進,讓更廣泛的社群參與其中。討論已不再是AI是否應該擴展,而是如何以可審計、可信賴且符合去中心化金融和更廣泛數字市場需求的方式成長。
本文最初發表於Crypto Breaking News,標題為《擴展下一代AI正增加風險而非利益》。