Anthropic 起訴美國政府,涉及與軍事用途爭議相關的 AI 黑名單

robot
摘要生成中

人工智慧開發商Anthropic已對多個美國政府機構提起訴訟,指控聯邦政府在公司拒絕允許其AI系統用於某些軍事用途後,非法將其技術列入黑名單。

摘要

  • Anthropic起訴多個美國機構,指控其在公司拒絕某些軍事用途後進行報復。
  • 爭議焦點在於限制使用公司Claude AI模型的自主武器和大規模監控。
  • 訴訟挑戰一項聯邦指令,該指令停止政府使用Anthropic技術並將公司列為國家安全供應鏈風險。

該申訴書已在加州北區美國地方法院提起,尋求對包括戰爭部、財政部、國務院、國土安全部、聯邦儲備委員會和證券交易委員會在內的廣泛聯邦機構和官員作出宣告性和禁令性救濟。

Anthropic指控政府在公司拒絕允許其名為Claude的AI模型家族用於致命自主戰爭或對美國人的大規模監控後進行報復。

根據申訴書,隨著政府官員要求Anthropic移除這些限制並允許戰爭部“依法”使用該技術,緊張局勢升級。公司表示已同意擴大合作,但堅持其兩個主要安全限制。

爭議最終導致唐納德·特朗普發布指令,命令聯邦機構立即停止使用Anthropic的技術,隨後戰爭部決定將該公司列為“國家安全供應鏈風險”。

該標籤禁止軍事承包商和合作夥伴與Anthropic合作,實質上將公司排除在國防供應鏈之外。隨後多個機構停止了合同或指示員工停止使用該公司的AI系統。

Anthropic認為這些行動違反了第一修正案、行政程序法以及憲法上的正當程序保障。公司聲稱這些措施是為了報復其對自主武器和大規模監控中AI系統安全性與可靠性的擔憂。

申訴書指出,政府的行動已導致合同取消,並可能危及數億美元的短期業務,同時損害公司聲譽和商業關係。

Anthropic請求法院宣布政府的行動非法,並在訴訟期間阻止執行相關指令。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 留言
  • 轉發
  • 分享
留言
0/400
暫無留言