3月3日消息,圍繞OpenAI與美國國防部達成AI合作協議的消息持續發酵,多名現任及前任員工近日在社交平台X上公開討論該協議的安全邊界、潛在用途以及與Anthropic立場之間的差異,引發科技與政策領域廣泛關注。
OpenAI首席執行官Sam Altman此前確認,公司已與美國國防部達成合作協議,允許其在特定條件下使用OpenAI的人工智能模型。該合作很快引起爭議,因為另一家AI公司Anthropic此前拒絕接受類似條款,原因是擔憂其模型Claude可能被用於大規模國內監控或自主致命武器系統。
对此,OpenAI研究人員Boaz Barak表示,將OpenAI合同描述為“弱化安全紅線”並不準確。他指出,從目前掌握的信息來看,OpenAI協議中對AI模型用途的限制可能比Anthropic此前獲得的合同更嚴格,尤其是在防止大規模國內監控和自主武器方面。
與此同時,前OpenAI政策研究主管Miles Brundage則提出不同觀點。他認為,在外部律師和五角大樓公開表態的背景下,一些員工可能會懷疑公司在談判中做出了讓步,並試圖將這種讓步包裝成技術合作。不過他隨後補充稱,OpenAI內部結構複雜,參與談判的團隊可能確實在努力爭取合理結果。
另一名OpenAI技術人員Clive Chan透露,公司合同中包含禁止將AI用於大規模監控或自主致命武器的保障條款,並表示自己正在推動公司公開更多協議細節,以回應公眾疑慮。
研究科學家Muhammad Bavarian則表示,五角大樓將Anthropic視為供應鏈風險的做法並不公平。他認為,如果雙方在談判中保持冷靜,仍然有機會彌合立場差距。
此外,研究員Noam Brown指出,最初公布的協議措辭確實留下了一些疑問,例如AI可能被用於新的合法監控形式。不過在OpenAI更新官方博客後,這些表述已經有所調整。
Noam Brown還強調,人工智能在國家安全機構中的應用應經過民主程序審查,而不應僅由科技公司或情報機構決定。目前,向美國國家安全局等情報部門部署相關AI系統的計劃也被暫緩,以等待進一步政策討論。
此次事件反映出AI技術在國家安全領域應用時所面臨的複雜爭議。隨著人工智能能力不斷增強,關於AI軍事用途、AI監控風險以及AI倫理治理的討論,預計仍將持續升溫。