Anthropic 起訴美國政府!要求撤銷五角大樓「供應鏈風險」封殺令

動區BlockTempo

AI 新創公司 Anthropic 與美國政府的衝突持續升級。據 Reuters 報導,美國國防部(Pentagon)近期將 Anthropic 列為「供應鏈風險」(supply-chain risk)實體,限制其 AI 技術在軍方合約中的使用。Anthropic 表示該認定缺乏法律依據,並已向聯邦法院提起訴訟,要求撤銷相關決定。
(前情提要:Anthropic 與五角大樓重啟 AI 談判:力求保住 Claude 國防合作、但堅守倫理紅線)
(背景補充:Anthropic CEO 怒嗆:OpenAI 與五角大廈合約全是謊言,Altman 偽裝自己為和平大使)

本文目錄

Toggle

  • 五角大樓將 Anthropic 列為「供應鏈風險」
  • 衝突焦點:AI 是否能用於監控與武器
  • Anthropic:認定「缺乏法律依據」將提告
  • AI 軍事應用與企業倫理之爭升溫

人工智慧公司 Anthropic 與美國政府的衝突正式進入法律戰。美國國防部近期宣布將 Anthropic 列為「供應鏈風險」實體,限制其 AI 模型在軍事相關合約中的使用。Anthropic 則強烈反駁,稱此舉「前所未有且缺乏法律依據」,並已向聯邦法院提起訴訟,要求法院撤銷該認定並阻止政府執行相關限制措施。

五角大樓將 Anthropic 列為「供應鏈風險」

據 Reuters 此前報導,美國國防部已正式通知 Anthropic,該公司及其 AI 技術被認定為「供應鏈風險」,該決定即刻生效。這項標籤通常用於限制可能對國家安全造成風險的供應商,並可能禁止其產品出現在國防採購或軍方合約中。

在實務上,這意味著與美國軍方合作的承包商與供應商,在執行國防部相關專案時,可能不得使用 Anthropic 的 AI 模型,例如其知名的 Claude 系列系統。外界指出,這是極為罕見的案例,因為類似標籤過去多用於外國企業或被視為國安威脅的供應商,而非美國本土 AI 公司。

衝突焦點:AI 是否能用於監控與武器

這場爭議的核心,來自 Anthropic 對其 AI 技術使用範圍的限制。根據多家媒體報導,Anthropic 明確拒絕讓其 AI 模型用於兩類高風險用途,包括:

  1. 完全自主武器系統
  2. 對美國公民的大規模監控

然而,美國國防部在與公司談判時,希望 AI 模型能允許「所有合法用途」。雙方在安全限制問題上始終未能達成共識,最終導致談判破裂並引發政府採取供應鏈風險認定措施。

Anthropic:認定「缺乏法律依據」將提告

Anthropic CEO Dario Amodei 表示,該公司認為國防部的決定「在法律上站不住腳」,並警告此舉可能為政府懲罰企業立場開創危險先例。Anthropic 已在聯邦法院提出訴訟,要求撤銷該認定並禁止政府執行相關限制。

Anthropic 指出,「供應鏈風險」標籤過去通常用於外國對手企業,而將其套用在一家美國 AI 公司身上,可能對整個科技產業與政府合作模式造成深遠影響。

AI 軍事應用與企業倫理之爭升溫

分析人士指出,這起案件反映了 AI 產業正在面臨的新難題:當大型模型開始進入軍事與國安領域時,企業能否限制政府如何使用其技術?

部分政策專家認為,若政府能因企業設定安全限制而對其施加經濟制裁,可能削弱科技公司對 AI 安全與倫理的自主決策權。另一方面,軍方則認為 AI 技術對國家安全具有戰略意義,不應受到過多限制。

這場法律戰的結果,可能不僅決定 Anthropic 是否能恢復與美國政府的合作,也可能為未來 AI 公司與政府之間的合作模式立下重要先例。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言