Anthropic 已向聯邦法院提起訴訟,抗議特朗普政府的全面黑名單,聲稱政府將這家人工智慧新創公司列為國家安全威脅,是對其拒絕放寬安全協議的報復。
該訴訟於週一在美國北加州地區法院提起,挑戰特朗普總統在二月指示聯邦機關停止使用Anthropic技術後採取的行動。這一決定是在Anthropic CEO Dario Amodei 公開表示公司不會配合五角大廈要求的無限制訪問Claude的請求後作出的。
起訴書列出多個聯邦機關和高級官員為被告,包括國防部長 Pete Hegseth、財政部長 Scott Bessent 和國務卿 Marco Rubio。
“憲法不允許政府濫用其巨大權力來懲罰一個受到保護的言論公司,” Anthropic 的律師在訴訟中表示。“沒有任何聯邦法規授權此類行動。Anthropic 將司法作為最後的手段,以維護其權利並停止行政部門的非法報復行動。”
在 @POTUS 的指示下,@USTreasury 正在終止本部門內所有對 Anthropic 產品的使用,包括其 Claude 平台的使用。
美國人民應有信心,政府的每一項工具都服務於公共利益,而在特朗普總統的領導下…… https://t.co/R7rF0ci5CY
— 財政部長 Scott Bessent (@SecScottBessent) 2026年3月2日
爭議始於一月,當時五角大廈官員要求AI承包商允許其系統用於“任何合法用途”,包括軍事應用。儘管Anthropic已與國防部簽訂了2億美元的合同,但它拒絕移除兩項限制,禁止Claude用於大規模國內監控或完全自主的致命武器系統。
“被挑戰的行動對Anthropic造成了立即且無法彌補的傷害;對其他可能因此受到言論壓制的人;對那些能從公司持續創造的經濟價值中受益的人;以及對一個應該進行充分對話和辯論的全球公共而言,都是一種傷害,” Anthropic 的律師在訴訟中表示。
對於包括 SingularityNET CEO Ben Goertzel 在內的AI開發者來說,這一標籤是一個奇怪的選擇,並不符合供應鏈威脅的典型含義,這通常是針對可能含有隱藏惡意軟件、病毒或間諜軟件的對手軟件。
“Anthropic 不願意讓他們的軟件用於自主殺戮或大規模監控,這似乎並不構成那樣的風險,” Goertzel 在 Decrypt 中表示。“這只是意味著如果你想用軟件進行自主殺戮或大規模監控,那就買別人的軟件。讓它成為供應鏈風險的邏輯我不理解。”
Goertzel 表示,主要AI模型之間的差異可能會限制這一決定的實際影響。
“最終,Claude、ChatGPT 和 Gemini 彼此之間並沒有那麼大差別,” 他說。“只要這些頂尖系統之一被美國政府使用,基本上都是一回事。而情報機構在頂級機密的掩護下,會隨意使用這些軟件。”
Anthropic 正在請求法院宣布政府的行動非法,並阻止執行“供應鏈風險”標籤,該標籤阻止聯邦機關和五角大廈承包商與該公司進行交易。
“沒有合理的理由支持被挑戰的行動,” 訴訟中說。“法院應宣布其非法,並禁止被告採取任何措施來實施它們。”
Decrypt 尚未立即收到對Anthropic置於國家安全風險的請求的回應。
即使被標記為國家安全風險,Claude 仍在持續的軍事行動中被使用,包括由美國中央司令部用於分析情報和在對伊朗的空襲中識別目標。
Cato研究所的科技政策高級研究員 Jennifer Huddleston 在與 Decrypt 分享的聲明中表示,該案引發了關於在國家安全聲稱用來正當化政府行動時,憲法保障的擔憂。
“儘管過去法院對政府的國家安全聲稱持謹慎態度,但本案的情況確實突顯了如果不徹底審查此類聲稱的基本考量,可能對美國人的第一修正案權利造成的真正風險,” 她說。