根據《時代》報導,Anthropic 已從其負責任擴展政策中刪除了核心的安全承諾。這一變動放寬了曾經禁止Claude AI開發者在未確保安全措施到位的情況下訓練先進AI系統的承諾。 此舉重新塑造了該公司在與OpenAI、Google和xAI等競爭對手的AI競賽中的定位。Anthropic 長期以來一直將自己定位為行業內最重視安全的實驗室之一,但在修訂後的政策中,Anthropic 不再承諾在風險緩解措施未完全到位時停止訓練。 “我們認為停止訓練AI模型其實對任何人都沒有幫助,” Anthropic 的首席科學官 Jared Kaplan 對《時代》表示。“隨著AI的快速進展,我們並不認為單方面做出承諾是合理的……如果競爭對手在快速前進。”
這一變動正值 Anthropic 與美國國防部長 Pete Hegseth 之間公開爭議之際,因為該公司拒絕讓五角大樓全面訪問 Claude,成為Google、xAI、Meta 和 OpenAI 之中唯一持此立場的主要AI實驗室。 RAND Corporation 的高級政策研究員 Edward Geist 表示,早期的“AI安全”框架源自一個特定的知識社群,該社群早於當前大型語言模型的出現。 “幾年前,還有一個AI安全的領域,” Geist 對《Decrypt》說。“AI安全與一群關心強大AI的社群相關,這些人早在我們擁有這些LLM之前就已經關注這個問題。” Geist 表示,早期的AI安全倡導者對於先進人工智能的想像與現在的情況截然不同。
“他們最終將問題概念化的方式,在某些方面,與當前這些LLMs的現實是質量上不同的,無論是好是壞,” Geist 說。 Geist 認為,語言的變化也向投資者和政策制定者傳遞了一個信號。 “部分原因是向不同的利益相關者傳達,這些公司希望給人一種印象,即它們在經濟競爭中並未因‘AI安全’的擔憂而有所保留,” 他說,並補充說,這一術語本身也在隨著時代變化而調整。 Anthropic 並非唯一修訂安全語言的公司。 什麼是AI安全? 非營利新聞組織《The Conversation》最近的一份報告指出,OpenAI 在其2024年稅務申報中也修改了使命聲明,刪除了“安全”一詞。 該公司早期的聲明承諾打造“安全地造福人類的通用人工智能,無需追求經濟回報”。而更新後的版本則表示其目標是“確保人工通用智能惠及全人類”。 “‘AI安全’這個詞的問題在於,似乎沒有人真正知道它到底意味著什麼,” Geist 說。“再者,‘AI安全’這個術語本身也曾受到爭議。” Anthropic的新政策強調透明措施,例如發布“前沿安全路線圖”和定期的“風險報告”,並表示如果認為存在重大災難風險,將推遲開發。 Anthropic 和 OpenAI 的政策轉變,正值這些公司希望鞏固其商業地位之際。 本月早些時候,Anthropic 宣布以約3800億美元的估值籌集了300億美元。同時,OpenAI 正在完成一輪由亞馬遜、微軟和英偉達支持的融資,金額可能達到1000億美元。 Anthropic 和 OpenAI,以及 Google 和 xAI,已獲得美國國防部的豐厚政府合約。然而,對於 Anthropic 來說,該合約似乎存在疑問,因為五角大樓正在考慮是否因訪問問題而切斷與該AI公司的合作。 隨著資金湧入該領域,地緣政治競爭日益激烈,Future of Life Institute 的 AI 和國家安全負責人 Hamza Chaudhry 表示,這一政策變化反映的是政治動態的轉變,而非爭取五角大樓的業務。 “如果真是這樣,他們早就會放棄一週前五角大樓的要求了,” Chaudhry 對《Decrypt》說。“Dario [Amodei] 也不會出席會議。” 他補充說,這次改寫反映了隨著政治壓力和競爭壓力上升,AI公司在談論風險時的轉折點。 “Anthropic 現在說,‘看,我們不能再一直談安全,也不能無條件暫停,我們將推動更輕度的監管措施,’”