2 月 24 日,星期二。華盛頓,五角大廈。
Anthropic 執行長 Dario Amodei 與國防部長 Pete Hegseth 面對面而坐。根據 NPR 和 CNN 等多家媒體援引知情人士報導,會談氣氛雖然「禮貌」,但內容極為強硬。
Hegseth 向他下達最後通牒:週五下午 5:01 之前,解除 Claude 的軍事使用限制,允許五角大廈將其應用於「所有合法用途」,包括自主武器瞄準及國內大規模監控。
否則將取消 2 億美元合約,啟動《國防生產法》強制徵用,並將 Anthropic 列為「供應鏈風險」,相當於被納入俄羅斯和中國敵對實體的黑名單。
同日,Anthropic 發布第三版「負責任擴展政策」(RSP 3.0),悄然刪除了公司自創立以來最核心的承諾:若無法確保安全措施到位,則不訓練更強大的模型。
也是同一天,Elon Musk 在 X 發文:「Anthropic 大規模竊取訓練數據,這是事實。」同時,X 的社群筆記補充了 Anthropic 因使用盜版書籍訓練 Claude 而支付 15 億美元和解金的相關報導。
短短七十二小時內,這家自詡「有靈魂」的 AI 公司,同時扮演了安全殉道者、知識產權竊賊和五角大廈叛徒三重角色。
哪一個才是真實的?
或許全都是。
故事的第一層邏輯很直接。
Anthropic 是首家獲得美國國防部機密級訪問權限的 AI 公司。去年夏天簽下合約,金額上限 2 億美元。OpenAI、Google、xAI 隨後也獲得了同等規模的合約。
根據半島電視台報導,Claude 曾於今年 1 月被用於美軍行動,內容涉及委內瑞拉總統馬杜羅的綁架。
但 Anthropic 劃定了兩條紅線:不支持全自主武器瞄準,也不支持針對美國公民的大規模監控。Anthropic 認為,現階段人工智慧的可靠性不足以操控武器,且目前尚無任何法律法規規範 AI 在大規模監控領域的應用。
五角大廈對此完全不買單。
白宮 AI 顧問 David Sacks 去年 10 月在 X 上公開指控 Anthropic「以恐懼為武器,推動監管俘獲」。
競爭對手已經選擇妥協。OpenAI、Google、xAI 都同意讓軍方在「所有合法場景」下使用其 AI。Musk 的 Grok 本週剛獲批進入機密系統。
Anthropic 成為最後一個堅持立場的公司。
截至發稿時,Anthropic 在最新聲明中表示,並無讓步打算。然而週五 5:01 的最後期限已迫在眉睫。
一位匿名的前司法部與國防部聯絡員對 CNN 表示困惑:「你怎麼能一邊宣稱某家公司是『供應鏈風險』,一邊又強迫這家公司為你的軍隊效力?」
這確實是個好問題,但五角大廈並不在意。他們只關心,如果 Anthropic 不妥協,就將採取強制手段,否則就讓其成為華盛頓的棄子。
2 月 23 日,Anthropic 發布一篇措辭激烈的部落格,指控三家中國 AI 公司對 Claude 發動「工業級蒸餾攻擊」。
被點名者為 DeepSeek、Moonshot AI、MiniMax。
Anthropic 指控這三家公司透過 2.4 萬個偽造帳號,對 Claude 發起超過 1,600 萬次互動,定向提取 Claude 在智能體推理、工具調用和程式設計等核心能力。
Anthropic 將此定性為國家安全威脅,並聲稱被蒸餾後的模型「幾乎不可能保留安全防護」,可能被威權政府用於網路攻擊、虛假資訊與大規模監控。
敘事和時機都堪稱完美。
正值川普政府剛放寬對中國芯片出口管制,Anthropic 也正需要為自身芯片出口管制的遊說尋找論據。
然而 Musk 公開反擊:「Anthropic 大規模竊取訓練數據,還為此支付了數十億美元和解金。這是事實。」

AI 基礎設施公司 IO.Net 聯合創辦人 Tory Green 表示:「你們用全網數據訓練自家模型,別人用你們公開 API 學習你們,就叫『蒸餾攻擊』?」
Anthropic 稱蒸餾為「攻擊」,但這在 AI 行業早已司空見慣。OpenAI 用其壓縮 GPT-4,Google 用其優化 Gemini,甚至 Anthropic 也在做。唯一的不同是,這回受害者換成自己。
新加坡南洋理工大學 AI 教授 Erik Cambria 對 CNBC 表示:「合法使用與惡意利用之間的界線往往模糊不清。」
更諷刺的是,Anthropic 剛因使用盜版書籍訓練 Claude 支付了 15 億美元和解金。他們用全網數據訓練模型,卻指控別人用其公開 API 學習。這不只是雙標,甚至是三重標準。
Anthropic 原本想塑造受害者形象,結果自己反成被告。
就在與五角大廈對峙、與矽谷激烈交鋒的同一天,Anthropic 發布了第三版負責任擴展政策。
Anthropic 首席科學家 Jared Kaplan 接受媒體採訪時表示:「我們認為,停止訓練 AI 模型對任何人都沒有幫助。在 AI 快速發展的背景下,單方面做出承諾……而競爭對手全速推進,這毫無意義。」
換句話說,既然別人不講規則,我們也不再裝了。
RSP 1.0 和 2.0 的核心是一條剛性承諾:若模型能力超出安全措施範圍,則暫停訓練。這使 Anthropic 在 AI 安全圈內建立了獨特聲譽。
但 3.0 已將這條承諾刪除。
取而代之的是一套更「靈活」的框架,將 Anthropic 可落實的安全措施與需全行業協作的安全建議分為兩條路徑。每 3 至 6 個月發布一次風險報告,並邀請外部專家審查。
聽起來很負責任?
非營利組織 METR 的獨立審查員 Chris Painter 看完政策早期草案後表示:「這意味著 Anthropic 認為必須進入『分診模式』,因為現有的評估與風險緩解手段已跟不上能力增長速度。這更證明社會尚未為 AI 潛在災難性風險做好準備。」
根據 TIME 報導,Anthropic 為這次政策重寫內部討論近一年,執行長 Amodei 與董事會全票通過。官方說法是,原政策設計初衷在於推動行業共識,但實際上業界並未跟進。川普政府對 AI 發展採取放任態度,甚至試圖廢除各州相關法規。聯邦層面的 AI 法律遙遙無期。儘管 2023 年建立全球治理框架似乎尚有可能,但三年過去,這扇大門已然關閉。
一位長期關注 AI 治理的匿名研究員直言:「RSP 是 Anthropic 最值錢的品牌資產。刪除暫停訓練承諾,就像有機食品公司悄悄把『有機』標籤從包裝上撕下,然後告訴你現在檢測更透明了。」
2 月初,Anthropic 以 3,800 億美元估值完成 300 億美元融資,亞馬遜為錨定投資者。自成立以來,年化收入達 140 億美元。過去三年,該數字每年增長逾 10 倍。
同時,五角大廈威脅將其列入黑名單,Musk 公開指控其數據竊取,核心安全承諾被刪除。Anthropic 的 AI 安全負責人 Mrinank Sharma 辭職後在 X 上寫道:「世界正處於危險之中。」
矛盾嗎?
或許矛盾正是 Anthropic 的基因。
這家公司由前 OpenAI 高管創立,因擔心 OpenAI 在安全議題上推進過快。結果他們自己創辦公司,以更快速度構建更強大模型,並向全球強調這些模型的危險性。
其商業模式可用一句話概括:我們比任何人都更害怕 AI,所以你應該付錢讓我們來造 AI。
這套敘事在 2023 至 2024 年運作得天衣無縫。AI 安全成為華盛頓熱詞,Anthropic 是最受歡迎的遊說者。
2026 年,風向驟變。
「woke AI」成為攻擊標籤,州級 AI 監管法案被白宮阻擋,Anthropic 支持的加州 SB 53 雖然簽署成法,但聯邦層面依舊空白。
Anthropic 的安全主張,正從「差異化優勢」滑向「政治負資產」。
Anthropic 正在進行一場複雜的平衡術,既要保持「安全」以維護品牌,又需足夠「靈活」以避免被市場和政府拋棄。問題在於,兩端的容忍空間正不斷收窄。
把這三件事結合起來,局勢便一目了然。
指控中國公司蒸餾 Claude,是為了強化芯片出口管制的遊說理由。為了不在軍備競賽中落後,刪除了安全暫停承諾。拒絕五角大廈的自主武器要求,是為保住最後一層道德底線。
每個舉措都自有邏輯,但彼此間卻充滿矛盾。
你不能一邊指責中國公司「蒸餾」你的模型危害國家安全,一邊又刪除防止自家模型失控的承諾。如果模型真的如此危險,你理應更謹慎,而非更激進。
除非你是 Anthropic。
在 AI 行業,身份不是由聲明決定,而是由資產負債表界定。Anthropic 的「安全敘事」,本質上是一種品牌溢價。
在 AI 軍備競賽初期,這種溢價確實有價值。投資人願意為「負責任的 AI」支付更高估值,政府願意為「可信賴的 AI」開綠燈,客戶也願意為「更安全的 AI」買單。
但到了 2026 年,這種溢價正在消散。
Anthropic 現在面臨的已不是「要不要妥協」的選擇,而是「先向誰妥協」的排序。向五角大廈妥協,品牌受損;向競爭對手妥協,安全承諾作廢;向投資人妥協,兩頭都要讓步。
週五下午 5:01,Anthropic 將交出自己的答案。
但無論答案為何,有一點已成定局:那個曾以「我們和 OpenAI 不一樣」自豪的 Anthropic,正逐漸變得和所有人一樣。
身份危機的終點,往往是身份的消失。





