Anthropic 起诉美国政府,涉及与军事用途争议相关的 AI 黑名单

robot
摘要生成中

人工智能开发商Anthropic已对多家美国政府机构提起诉讼,指控联邦政府在公司拒绝允许其AI系统用于某些军事用途后,非法将其技术列入黑名单。

摘要

  • Anthropic起诉多家美国机构,指控其在公司拒绝某些军事用途后进行报复。
  • 争议集中在对公司Claude AI模型的自主武器和大规模监控限制上。
  • 诉讼质疑一项联邦指令,该指令停止了政府对Anthropic技术的使用,并将公司列为国家安全供应链风险。

该起诉状在美国加利福尼亚北区联邦地区法院提起,寻求对包括战争部、财政部、国务院、国土安全部、联邦储备委员会和证券交易委员会在内的广泛联邦实体和官员作出宣告性和禁令性救济。

Anthropic指控政府在公司拒绝允许其名为Claude的AI模型家族用于致命自主战争或对美国人的大规模监控后进行了报复。

据起诉书称,随着政府官员要求Anthropic取消这些限制并允许战争部“依法”使用该技术,紧张局势升级。公司表示已同意扩大合作,但坚持其两个关键安全限制。

争议最终导致特朗普发布指令,命令联邦机构立即停止使用Anthropic的技术,随后战争部决定将公司列为“国家安全供应链风险”。

该标签禁止军事承包商和合作伙伴与Anthropic合作,实际上将公司排除在国防供应链之外。随后,多个机构暂停了合同或指示员工停止使用该公司的AI系统。

Anthropic认为这些行动违反了第一修正案、行政程序法以及宪法保障的正当程序权利。公司声称,这些措施是在公司表达对自主武器和大规模监控中AI系统安全性和可靠性担忧后采取的报复措施。

起诉书指出,政府的行动已导致合同取消,可能危及数亿美元的短期业务,同时也损害了公司的声誉和商业关系。

Anthropic请求法院宣布政府的行为违法,并在诉讼期间阻止这些指令的执行。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论