Anthropic 执行长阿莫迪(Dario Amodei)接受《经济学人》主编贝多斯(Zanny Minton Beddoes)采访,解释为何 Anthropic 反对五角大楼的部分合约条款。他认为 Anthropic 的立场不仅基于民主价值理念,更在于担忧现有的 AI 模型是否足够可靠,能应用于军事防御,以及最终应由谁来控制它。阿莫迪同时透露出希望与政府有对话空间,商讨签署更明确的 AI 条款。
阿莫迪:Claude 尚未能成为军事全自动化模型
Anthropic 执行长阿莫迪坚持 Claude 不得用于大规模监控或自主武器后,特朗普政府下令禁止联邦机构使用该公司提供的模型工具,如今 Claude 被美国标记为 AI 风险供应商。阿莫迪表示,Anthropic 的主要模型 Claude 尚未准备好用于全自动军事应用场景,他认为,作为一家私人 AI 供应商,要向政府客户解释如何妥善使用模型并不容易,但他认为这是必要的安全措施。
阿莫迪澄清说,Anthropic 与五角大楼签订了一份范围有限的合同,目前这份合约没有出现问题,而他们担心的是未来的使用范围。军事全自动化将创造一个 AI 可以控制数百万架无人机而无需遵循传统军事规范的场景,而如果不对这个应用范围加以限制,将难以控制。
Anthropic 如何证明限制武器使用范围为合理?
阿莫迪在与《经济学人》的对话中解释了限制 Claude 指挥无人机用于全自动武器的原因,基于两点:一是 Claude 可靠性不足,二是缺乏人类治理监督框架(影片 0:00-0:18,5:48-5:58)。
Claude 可靠性不足:阿莫迪认为,Claude 模型尚不足以支持全自动军事应用场景,将其比喻为飞机制造商应公布某些飞行方式可能不安全(影片 0:05-0:49)。
缺乏人类治理监督框架:阿莫迪担忧缺乏人类规范来管理一支由无人机组成的军队,可能会导致一个人就能控制数百万件武器,而无需承担传统的军事责任(影片 5:48-6:55)。
如何处理军事人工智能的意见分歧?
阿莫迪通过与《经济学人》的对话采访向特朗普政府表示,希望 Anthropic 与政府能共同以更细致的方式处理人工智能应用上的意见分歧,他强调人工智能供应商和政府应充分讨论现有模型的可靠性和治理规范,以应对 AI 可能带来的风险。阿莫迪认为,人工智能供应商有责任明确说明模型在某些高风险应用上的成熟度。
阿莫迪建议先签订涵盖已达成共识用例的有限合约,使双方能够在应用扩展到更具争议性的任务前,建立模型操作规范,但目前需要展开讨论,以找到一个共识与平衡点,既不能让私营公司权力过大,也不能让政府权力绝对不可挑战。
Anthropic 之名源自“人类学”,揭示了创办人阿莫迪的初心:打造一家以人为本的 AI 企业。这份执着,让他成为少数敢公开向美国政府叫板、并直指中国窃取 Claude 技术的高科技公司执行长。Anthropic 如何在坚持理念与配合国家安全之间取得平衡,将成为 AI 军事化发展的重要分水岭。这场关乎技术主权与伦理边界的僵局如何化解?全球都在关注。
这篇文章《Anthropic 执行长:Claude 不足应用于军事,期待签署更明确条款》最早出现在 链新闻 ABMedia。