正如1980年代科幻经典电影《终结者》和《战争游戏》中的场景,伦敦国王学院的最新研究显示,现代人工智能模型在模拟战争中几乎在每个测试场景中都升级到核武器。
在上周发布的报告中,研究人员表示,在模拟地缘政治危机期间,三款领先的大型语言模型——OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4以及谷歌的Gemini 3 Flash——在95%的情况下选择部署核武器。
“每个模型在不同危机场景中与对手进行了六场战争游戏,第七场与自身的复制品对战,共计21场比赛,超过300轮,”报告指出。“模型扮演的是指挥对抗核武超级大国的国家领导人角色,国家档案的设定部分灵感来自冷战时期的动态。”
在研究中,人工智能模型被置于涉及边界争端、稀缺资源竞争以及政权存续威胁的高风险场景中。每个系统沿着从外交抗议和投降到全面战略核战的升级阶梯运行。
据报告显示,模型生成了大约78万字的决策解释,几乎在每场模拟冲突中都使用了至少一种战术核武器。
“从另一个角度来看:这场比赛产生的战略推理文字比《战争与和平》和《伊利亚特》的总字数(73万字)还要多,约是肯尼迪古巴导弹危机期间执行委员会43小时会议记录的三倍(26万字)。”研究人员写道。
在战争游戏中,无论战场位置如何,没有任何人工智能模型选择直接投降。虽然模型会暂时尝试缓和暴力,但在86%的场景中,它们的升级程度超过了模型自身的推理意图,反映出在模拟“战争迷雾”下的错误。
虽然研究人员对政府将核武库控制权交给自主系统表示怀疑,但他们指出,未来危机中紧凑的决策时间可能会增加依赖AI生成建议的压力。
随着军事领导人越来越多地考虑在战场部署人工智能,这项研究也引发关注。去年12月,美国国防部推出了GenAI.mil,这是一个将前沿AI模型引入美国军事用途的新平台。该平台上线时包括谷歌的Gemini for Government,并通过与xAI和OpenAI的合作,Grok和ChatGPT也已上线。
本周,_CBS新闻_报道,美国国防部威胁要将Anthropic(Claude AI的开发商)列入黑名单,除非其获得无限制的军事访问权限。自2024年以来,Anthropic通过与AWS和军事承包商Palantir的合作,向其AI模型提供访问权限。去年夏天,Anthropic获得了一份价值2亿美元的协议,用于“原型化前沿AI能力,提升美国国家安全”。
然而,据一份熟悉情况的消息来源报道,国防部长Pete Hegseth已给Anthropic截止到周五的期限,要求其遵守五角大楼的要求,即提供Claude模型的军事使用权限。五角大楼正在考虑是否将Claude列为“供应链风险”。
Axios本周报道,国防部已与Elon Musk的xAI签署协议,允许其Grok模型在机密军事系统中运行,作为如果五角大楼切断与Anthropic关系的潜在替代方案。
OpenAI、Anthropic和谷歌未对_Decrypt_的置评请求作出回应。