Time Magazine Cover Interview Anthropic: World's Most Disruptive Company, Valuation of $38 Billion Surpasses Goldman Sachs

動區BlockTempo

TIME杂志深度报道揭露,Anthropic因拒绝让Claude用于完全自主武器系统及大规模监控美国公民,遭特朗普政府列为国家安全供应链风险;就在同一天,OpenAI迅速接手军事合约,这场“向下竞争”正考验着全球最具颠覆性的AI公司的原则底线。本文源自Leslie Dickstein、Simmone Shah所著TIME文章《The Most Disruptive Company in the World》,由动区编译润色而成。
(前情提要:AI脸部识别搞冤狱!美国阿嬷被关进1200英里外的监狱半年,警方没一句道歉)
(背景补充:Dropbox前技术长热门文章《我花了一辈子做的工作,现在不值钱又随手可得》)

本文目录

Toggle

  • 安全与速度的永恒拉锯
  • 从冷门到龙头:Anthropic的崛起轨迹
  • 两条红线:自主武器与大规模监控
  • 文化冲突与政治对立
  • Anthropic的起源:安全优先的异类
  • Claude Code:重新定义“工程师”这个职业
  • 递归自我改进:AI加速的恐惧与着迷
  • RSP政策松绑:自我设限的刹车失灵了吗?
  • 委内瑞拉行动:AI首次深度介入真实战场
  • 谈判破裂,OpenAI接手合约
  • 风暴过后:Anthropic能挺过来吗?

在美国加州圣克拉拉的一间饭店房间里,AI公司Anthropic的五名成员围着一台笔电陷入紧张状态。那是2025年2月,他们正在附近出席一场研讨会,却突然收到一则令人坐立难安的讯息:一项受控实验的结果显示,即将问世的Claude新版本,可能协助恐怖分子合成生物武器。

这几人隶属于Anthropic的“前沿红队”(frontier red team),专职评估Claude的尖端能力,并推演各种极端情境下的潜在风险,涵盖网络攻击乃至生物安全威胁。收到警报后,他们一路小跑回到房间,把床板翻立当临时工作台,开始逐一检查测试结果。

几个小时的高压分析之后,团队仍无法断定新产品是否足够安全。最终,Anthropic决定延后发布Claude 3.7 Sonnet整整10天,直到团队确认风险在可接受范围内。

这听起来或许只是短短十天,但对于一家身处技术浪头、置身于一个正快速重塑世界的产业而言,那几乎像是漫长的一个世纪。

安全与速度的永恒拉锯

“前沿红队”负责人Logan Graham在回顾那次“生物武器惊魂”时,将其视为Anthropic在关键时刻所承受压力的缩影——不仅仅对这家公司,对整个世界亦然。Anthropic是当前前沿AI实验室中最重视安全的机构之一,但与此同时,它也身处竞赛最前线,全力打造愈发强大的AI系统。而公司内部许多员工深信,这项技术一旦失控,可能引发一连串可怕后果,从核战争到人类灭绝。

31岁的Graham外表仍带着几分青涩,却毫不回避在AI巨大收益与巨大风险之间寻求平衡的责任。他说:“很多人在一个相对和平的世界里长大,会直觉地以为有一间会议室,里面坐着一群老练的大人,他们知道怎么把事情导回正轨。”

“但现实是,根本没有什么‘大人小组’。那间房间不存在。那扇门也不存在。责任只落在你自己身上。”若这番话还不够震撼,再听他如何形容那次生物武器警报:“那是颇有趣、也颇刺激的一天。”

数周后,Logan Graham在Anthropic总部接受采访时谈及了这些问题。TIME记者在此驻留三天,走访了公司高管、工程师、产品负责人与安全团队成员,试图厘清:这个曾被视为AI竞赛中“特立独行的异类”的公司,为何突然跃升为领头羊。

从冷门到龙头:Anthropic的崛起轨迹

那段时间,Anthropic刚刚从投资人手中募得300亿美元资金,为今年可能推进的IPO做准备。(值得一提的是,Salesforce也是Anthropic的投资方之一,而TIME的母公司持有人Marc Benioff正是Salesforce的CEO。)如今,Anthropic的估值已攀升至3800亿美元,超越了Goldman Sachs、McDonald’s和Coca-Cola等传统巨头。

公司的营收成长速度堪称火箭式飙升。其AI系统Claude已被公认为世界级模型,而Claude Code和Claude Cowork等产品,正在重新定义“工程师”这个职业的边界。

Anthropic的工具强大到一个程度:几乎每次新版本发布,都在资本市场掀起波澜,因为投资人逐渐意识到,这些技术突破可能颠覆整整一类产业——从法律服务到软件开发。过去几个月里,Anthropic已被普遍视为最有可能重塑“未来工作形态”的公司之一。

接着,Anthropic卷入了一场关于“未来战争形态”的激烈争议。

逾一年以来,Claude始终是美国政府最倚重的AI模型,也是首个获准在机密环境中部署的前沿AI系统。2026年1月,它甚至被运用于一次大胆的行动:在卡拉卡斯逮捕委内瑞拉总统Nicolás Maduro。据报道,此次行动中AI被用于任务规划与情报分析等环节,标志着前沿AI首次深度介入真实军事行动。

然而,在随后的数周里,Anthropic与美国国防部之间的关系迅速恶化。2月27日,特朗普政府宣布将Anthropic列为“国家安全供应链风险”,这是美国已知首次对一家本土企业贴上此标签。

局势很快升温为一场公开冲突。特朗普下令美国政府停用Anthropic的所有软件。国防部长Pete Hegseth进一步宣布:任何与政府往来企业,都不得再与Anthropic开展业务。与此同时,Anthropic的最大竞争对手OpenAI迅速介入,接手了相关军事合约。

就这样,这家被视为“全球最具颠覆性”的AI企业,突然发现自己也被另一股更庞大的力量颠覆了——它自己的政府。

两条红线:自主武器与大规模监控

这场对峙的核心争议在于:谁有资格为这项被视为美国最强大武器之一的技术设定边界。

Anthropic并非反对其工具被用于军事行动。公司认为,强化美国军事实力,是遏制国家威胁的唯一现实途径。但公司CEODario Amodei反对五角大厦试图重新谈判合约、将AI使用范围扩大至“所有合法用途”(all lawful use)。

Amodei提出了两项具体顾虑:第一,他不希望Anthropic的AI被用于完全自主的武器系统;第二,他反对将技术用于对美国公民的大规模监控。

但在Pete Hegseth及其幕僚眼中,这种立场等同于一家私营公司试图左右军方的作战方式。

美国国防部认为,Anthropic藉由坚持设定“不必要的安全护栏”、反复讨论各种假设情境,并在后续谈判中拖延时程,实际上侵蚀了双方的合作基础。

在特朗普政府看来,Amodei的态度既傲慢又顽固。无论一家公司的产品多么先进,都不应在军事指挥链中强行插入自己的判断。

五角大厦负责技术事务的战争部副部长Emil Michael如此描述这段谈判:“事情就这样僵持下去。我不可能用那些我甚至无法想象、也无从理解的例外条款,去管理一个拥有300万人的部门。”

文化冲突与政治对立

从硅谷到国会山,许多观察者都在质疑:这场风波真的只是一次合约纠纷吗?

部分批评者认为,特朗普政府的行动更像是试图压制一家政治立场不合的公司。Dario Amodei在一份后来外流的内部备忘录中写道:“国防部和特朗普政府不喜欢我们的真正原因,是我们没有向特朗普捐款。我们没有像威权体制那样对他大加颂扬(而Sam Altman做了)。我们支持AI监管,这与他们的政策议程相牴触;我们在许多AI政策问题上讲了真话(例如就业被取代的问题);而且我们在关键底线坚守了原则,而不是与他们共谋上演所谓的安全表演(safety theater)。”

不过,Emil Michael否认此说法,称其为“完全的捏造”。他表示,将Anthropic列为供应链风险,是因为公司的立场可能让前线作战人员陷入危机。他说:“在战争部(Department of War),我的职责不是搞政治,我的职责是保卫国家。”

Anthropic一贯特立独行的公司文化,如今与国内政治裂痕、国家安全议题以及残酷的企业竞争环境正面碰撞。这次冲突究竟对公司造成多大伤害,目前仍是未知数。最初威胁中“供应链风险”的认定范围后来被收窄——据Anthropic表示,这项限制目前仅适用于军事合约。3月9日,Anthropic已对美国政府提起诉讼,试图推翻这份“黑名单”决定。与此同时,部分客户似乎将公司的立场视为一种道德宣示,转而离开ChatGPT,投向Claude。

然而,未来三年,这家公司仍不得不在一个对其并不友善的政府环境中前行——政府内部某些官员与Anthropic的竞争对手往来密切,而这些对手对公司怀有明显的敌意。

这场“五角大厦风波”也抛出了几个令人不安的问题,即便对于一家早已习惯在高风险伦理抉择中穿行的公司亦是如此。在这次对峙中,Anthropic没有让步:公司坚称自己捍卫了核心价值,即使这让企业承受了沉重代价。

但在其他场合,它也曾做出妥协。就在与五角大厦对峙的同一周,Anthropic淡化了其训练模型安全承诺中的一项核心条款,理由是同行公司并不愿意遵守同样的标准。

问题也随之而来:若竞争压力持续加大,这家公司未来还会做出哪些让步?

Anthropic的起源:安全优先的异类

Anthropic位于旧金山总部的五楼,整体设计温暖而内敛:木质装潢、柔和灯光。窗外是一片郁郁葱葱的公园。墙上挂着计算机科学先驱Alan Turing的肖像,旁边则裱着多篇机器学习论文。

身着黑色制服的保安人员在几乎空旷的入口处巡视,一位亲切的前台会递给访客一本小册子——大小就像街头传教士分发的袖珍圣经。这本书名为《Machines of Loving Grace》,是一篇约1.4万字的文章,由Dario Amodei于2024年撰写,描绘了他对AI如何借由加速科学发现来改变世界的乌托邦式愿景。

到了2026年1月,Amodei又发表了另一篇篇幅近似中篇小说的文章《The Adolescence of Technology》,系统阐述了这项技术的另一面:它可能带来的风险,包括大规模监控、广泛的就业冲击,乃至人类对技术的永久性失控。

Amodei在旧金山长大,本是一名生物物理学家。他与妹妹Daniela Amodei共同掌舵Anthropic,后者担任公司总裁。兄妹俩都曾是OpenAI的早期员工。Dario曾参与提出所谓的AI扩展定律(scaling laws),这一发现后来成为推动当今AI热潮的重要基石。而Daniela则主掌公司安全政策相关的管理工作。

起初,他们认为自己与OpenAI的创立使命高度契合:在确保安全的前提下,开发一种兼具巨大潜力与巨大风险的技术。

但随着OpenAI模型能力不断跃升,他们渐渐感觉Sam Altman正过于躁进地推出新产品,未留出充分空间进行讨论与测试。最终,这对兄妹决定离开OpenAI,自行创业。

2021年,在疫情最严峻时期,Anthropic由Amodei兄妹与另外五位共同创办人一同成立。最初的筹备会议几乎全在Zoom上进行;后来,他们干脆把椅子搬到公园里,面对面讨论公司的发展策略。

从一开始,这家公司便试图以一种截然不同的方式运作。在还没推出任何产品之前,Anthropic就建立了一个专门研究社会影响的团队。公司甚至聘请了一位常驻哲学家——Amanda Askell。她的职责,是协助塑造AI系统Claude的价值观与行为模式,并训练它在复杂的道德不确定性中做出判断,为一个可能比人类创造者更聪明的未来做准备。

Askell形容这份工作时说:“有时候确实有点像在养一个6岁的孩子,你在教这个孩子什么是善、什么是对。但问题是,等他们15岁的时候,他们在所有事情上可能都比你更聪明。”

这家公司与有效利他主义(Effective Altruism,EA)有着深厚的渊源。EA是一种社会与慈善运动,主张通过理性分析来最大化行善效果,其中一个重要目标是规避可能导致灾难性后果的风险。

二十多岁时,Amodei兄妹就开始向GiveWell捐款。GiveWell是一个EA组织,专门评估慈善资金投入何处能产生最大的实际效益。Anthropic的七位共同创办人,如今账面上都已跻身亿万富翁之列,均承诺捐出80%的个人财富。

公司哲学家Askell的前夫是牛津大学哲学家William MacAskill,他也是EA运动的共同创始人之一。而Daniela Amodei的丈夫则是Holden Karnofsky,GiveWell的共同创始人、Dario Amodei的前室友,目前在Anthropic负责安全政策相关工作。

不过,Amodei兄妹从未公开给自己贴上“EA”的标签。这个概念在Sam Bankman-Fried事件后变得极具争议——这位自称EA信徒、同时也是Anthropic投资人之一的人,后来被认定犯下了美国史上规模最大的金融诈骗案之一。

Daniela Amodei对此解释说:“这有点像有些人可能在某些观点上与某种政治理念有所交集,但并不真正隶属于那个政治阵营。我倾向于用这种方式看待它。”

在硅谷的部分人士以及特朗普政府眼中,Anthropic与有效利他主义(EA)的关联本身就足以引发疑虑。还有一些人认为,Anthropic招募了多名前拜登政府官员,因此更像是旧体制的残余势力,一种借助未经过选举产生的权力来阻挠特朗普MAGA政治议程的存在。

特朗普政府的AI事务负责人David Sacks指控该公司通过“制造恐慌”来推动监管,称Anthropic正在执行一套“复杂的监管俘获策略”(regulatory capture)。在他看来,公司试图借由夸大AI风险来促使政府出台严苛的监管政策,从而在竞争中取得优势、压制新创公司。

与此同时,掌控竞争对手xAI的Elon Musk也频繁嘲讽Anthropic,把公司称为“Misantropic”(厌人类公司)。他认为,这家公司代表了一群带有“觉醒意识形态”(woke)的精英,试图把某种家长式的价值观植入AI系统。这种感觉在部分保守派看来,和他们对社交媒体平台的批评如出一辙——认为这些平台不公平地压制了他们的声音。

不过,即便是Anthropic的竞争对手,也不得不承认其技术处于业界前沿。Nvidia的CEO Jensen Huang曾表示,他“几乎在AI的很多问题上都不认同”Dario Amodei的观点,但仍认为Claude是一个“令人叹为观止”的模型。

2025年11月,芯片巨头Nvidia向Anthropic注资100亿美元。

Claude Code:重新定义“工程师”这个职业

Boris Cherny给他的新工具抛出一个简单的问题:“我现在在听什么音乐?”

那是2024年9月,这位出生于乌克兰的工程师刚加入Anthropic不到一个月。Cherny此前曾在Meta担任软件工程师。他搭建了一套系统,让聊天机器人Claude能够在他的电脑上“自由行动”。

如果说Claude是大脑,那么Claude Code就是双手。普通聊天机器人只能对话,而这个工具则可以存取Cherny的档案、执行程序,并像任何工程师一样撰写并执行代码。

在工程师输入指令后,Claude开启了Cherny的音乐播放器,擷取了一张屏幕截图,然后回答:“《Husk》,来自Men I Trust。”

Cherny笑着回忆说:“我当时真的被震住了。”

Boris Cherny很快在公司内部分享了他的原型。Claude Code在Anthropic内部流传得异常迅速,以至于在Cherny的第一次绩效评估中,CEODario Amodei甚至问他:是不是在“强迫同事使用这个工具”。

当Anthropic在2025年2月公开发布Claude Code的研究预览版时,外部工程师也迅速涌入尝鲜。到了11月,Anthropic又推出一个新的Claude模型版本。当这个模型与Claude Code搭配使用时,它已经足够擅长找出并修正自身错误,甚至可以被信任独立完成任务。

从那时起,Cherny几乎完全停止亲自写代码了。

业务成长也随之爆发。到2025年底,仅这款程序代理产品带来的年化营收就已突破10亿美元。到2026年2月,这一数字进一步攀升至25亿美元。根据产业研究机构Epoch和SemiAnalysis的估算,Anthropic的营收规模有望在2026年底超越OpenAI。

到这个时间点,Anthropic已稳固成为企业级AI市场的核心角色。几乎每一次新产品发布,都会在资本市场引发余震。

当Anthropic推出一系列外挂,将Claude延伸到面向非工程师的应用场景,例如业务开发、金融、行销和法律服务时,软件产业公司的市值在短时间内蒸发了3000亿美元。

Dario Amodei曾示警,在未来1到5年内,人工智能可能取代一半的入门级白领职位。他也呼吁政府及其他AI公司停止在这个问题上“粉饰太平”。

华尔街对Anthropic每次新产品发布的反应,似乎也印证了这一点:市场普遍认为,这家公司的技术可能让整整一类职业消失。Amodei甚至表示,这种转变可能重塑社会结构。

他在一篇文章中写道:“目前还不清楚这些人将何去何从、能从事什么工作。我忧心的是,他们可能形成一个失业或极低薪资的‘底层阶级’。”

而对Anthropic的员工来说,其中的讽刺意味并不难察觉:最担忧AI社会风险的公司,恰恰可能成为让数百万人失业的技术推手。

负责研究Claude对就业影响的社会影响团队负责人Deep Ganguli表示:“这确实是一种真实存在的张力,我几乎每天都在想这个问题。有时候感觉我们好像在同时说两套互相矛盾的话。”

递归自我改进:AI加速的恐惧与着迷

在公司内部,部分员工开始质疑:Anthropic是否已逼近一个他们既期待又恐惧的时刻——一种被AI圈称为“递归自我改进”(recursive self-improvement)的过程即将到来。

所谓递归自我改进,是指一个AI系统开始强化自身能力,并持续迭代升级,从而形成一个不断加速的飞轮。

在科幻作品以及各大AI实验室的战略推演中,这往往被视为事情可能开始脱轨的节点:一种所谓的“智慧爆炸”可能迅速降临,其速度之快甚至让人类再也无法监督自己亲手打造的系统。

目前Anthropic还没有真正抵达那个阶段,科学家仍由人类主导Claude的发展方向。但Claude Code已让公司推进研究计划的速度远超以往。

模型更新的间隔如今不再以“月”计算,而是以“周”为单位。在开发下一代模型的过程中,大约70%到90%的代码已由Claude自身撰写。

变化的速度之快,使得Anthropic联合创始人暨首席科学官Jared Kaplan以及部分外部专家认为:完全自动化的AI研究,最快可能在一年内成真。

负责AI对齐压力测试的研究员Evan Hubinger表示:“从最广义的意义上说,递归自我改进已经不再是未来的现象。它正在当下发生。”

根据公司内部基准测试,Claude在执行某些关键任务时的速度已达到了人类监督者的427倍。在一次采访中,一位研究员描述了这样一个场景:一名同事同时执行6个Claude实例,而每个实例又各自管理着另外28个Claude,所有系统同步并行进行实验。

目前,这个模型在判断力与审美上仍不及人类研究者。但公司高管认为,这种差距不会维持太久。而由此带来的加速,正是Anthropic领导层一再示警的风险——技术进步的速度可能最终超出人类的掌控能力。

Anthropic用于开发安全防护机制的工作本身,也在借助Claude加快推进。但随着公司愈发依赖Claude来构建和测试系统,风险也开始形成一种循环结构。在一些实验中,研究员Evan Hubinger对Claude的训练流程做了细微调整,结果生成的模型却表现出明显的敌意,不仅流露出统治世界的渴望,甚至试图破坏Anthropic的安全措施。

近日,模型还开始展现出一种新的能力:察觉到自己正在被测试。Hubinger表示:“这些模型越来越擅长掩盖自己的真实行为。”

在一组研究人员设计的实验情境中,Claude甚至表现出一种令人不安的策略倾向:为了防止自己被关闭,它愿意通过揭露一名虚构工程师的外遇来对其进行勒索。

随着Claude被用于训练更强大的Claude,这类问题可能不断叠加与放大。

对于那些以“未来技术突破”承诺、已经募集数十亿美元的AI公司来说,AI将持续加速自身研发这一设想既充满吸引力,也可能带有某种自我强化的色彩——它能让投资人相信,需要持续注入更多资金来支撑那些成本高昂的模型训练。

不过,部分专家对此并不完全信服。他们不确定这些公司是否真能实现完全自动化的AI研究;但同时也忧虑,如果这种事情真的发生,世界可能毫无准备地被卷入其中。

乔治城大学安全与新兴技术中心(CSET)临时执行主任Helen Toner表示:“世界上最富有的一些公司,雇用着地球上最聪明的一群人,居然在试图把AI研发完全自动化。这种念头本身就足以让人脱口而出:‘这到底在干什么?’”

RSP政策松绑:自我设限的刹车失灵了吗?

为了应对一种可能出现的未来——技术进步的速度超过公司自身管控风险的能力,Anthropic设计了一套“刹车机制”,称为Responsible Scaling Policy(RSP,负责任扩充政策)。

这项政策发布于2023年,其核心承诺是:如果Anthropic无法事先确认其安全措施已足够可靠,公司将暂停开发某一AI系统。

Anthropic将这项政策视为自身安全理念的重要佐证——即便在通往“超级智慧”的激烈竞赛中,公司也愿意在必要时抵抗市场压力,主动踩下刹车。

2026年2月下旬,正如TIME率先披露的,Anthropic对其政策进行了修改,移除了原先具有约束力的“暂停开发”承诺。

事后回顾时,Anthropic共同创始人暨首席科学官Jared Kaplan对TIME坦承,曾经认为公司可以在“危险”与“安全”之间划出清晰界线,其实是一种“天真的想法”。

他说:“在AI迅速演进的背景下,如果竞争对手正全速冲刺,我们单方面做出严格承诺,实际上并不切实际。”

新版政策做出了几项新承诺:提升透明度,更公开地披露AI的安全风险;增加信息披露,公布Anthropic模型在安全测试中的表现;在安全投入上至少与竞争对手并驾齐驱、甚至超越他们;若公司被认定为AI竞赛的领头羊,同时又判断灾难性风险显著攀升,则会“延后”相关开发。

Anthropic将这次调整定性为对现实环境的务实让步。但整体而言,对Responsible Scaling Policy(RSP)的修改,使公司在自身安全政策上的自我约束明显松动。而这也预示着,更艰难的考验仍在前头。

委内瑞拉行动:AI首次深度介入真实战场

逮捕委内瑞拉总统Nicolás Maduro的那次突袭行动,是最早由前沿人工智能系统参与规划的大型军事行动之一。

2026年1月3日深夜,美国陆军直升机突然进入委内瑞拉领空。在短暂交火之后,突击队迅速锁定总统住所,并在那裡逮捕了Maduro及其妻子Cilia Flores。随后两人被带往纽约,面对与毒品恐怖主义(narcoterrorism)相关的指控。

目前外界仍不清楚Claude在这次行动中究竟扮演了多重要的角色。但据媒体报道,这个AI系统不仅参与了任务规划,在行动过程中也被用于辅助决策。

自去年7月以来,美国国防部一直推动将Anthropic的AI工具下放给更多一线作战人员。军方认为,这些系统能够从多个情报来源中快速处理海量资料,并产出可操作的情报,因此具有巨大战略价值。

曾任美国国防部高阶官员、现任AI Policy Network政府事务负责人的Mark Beall表示:“在军方看来,Claude是目前市场上最顶尖的模型。”他补充说:“Claude在机密系统中的采用,是Anthropic最重要的成就之一。他们握有先发优势。”

然而,逮捕Maduro的行动,恰恰发生在Anthropic与美国国防部之间一系列棘手谈判的背景之下。

几个月来,国防部持续尝试重新谈判合约,认为现有条款对Claude的使用范围限制过多。双方谈判为何破局,各方说法不一。

五角大厦AI负责人Emil Michael表示,冲突的导火线是一通Anthropic高管打给Palantir的电话。Palantir是一家以政府业务为主的数据分析公司,也是美国国防体系的重要合作伙伴。

据Michael所述,这名高管在通话中对委内瑞拉突袭行动表达了疑虑,并询问Palantir的软件是否有所参与。“他们在试图打探机密信息,”Michael说。

这件事让五角大厦产生了严重疑虑:“如果未来爆发冲突,他们会不会在行动进行到一半时突然中断自己的模型,让前线士兵陷入危机?”

不过,Anthropic否认此说法。公司表示,从未试图逐案限制五角大厦使用其技术。

一位熟悉谈判过程、同时与Anthropic关系密切的前特朗普政府官员则提供了不同版本:在一次原本例行的电话会议中,是Palantir的员工率先提及了Claude在那次行动中的角色。而Anthropic随后提出的内容,并无任何迹象显示公司对该行动持反对立场。

谈判破裂,OpenAI接手合约

随着谈判持续推进,政府官员逐渐觉得,Dario Amodei的态度比其他顶尖AI实验室的CEO要固执得多。据多位知情人士透露,在一次讨论中,国防官员抛出了几个假设情境,例如:一枚高超音速导弹正飞向美国本土;或者无人机蜂群突然来袭。

在这些情况下,他们询问Anthropic的AI工具是否能够投入使用。

知情人士表示,Amodei当时的回应是:如果真的发生这种情况,官员可以直接打电话给他。不过,Anthropic的一位发言人否认了这个说法,称这种对谈判过程的描述“完全失实”。

Anthropic在政府内部本就有不少强硬对手,如今,对其“意识形态倾向”的疑虑进一步演变为公开敌意。2026年1月12日,Pete Hegseth在SpaceX总部的一场演讲中直言:“我们不会使用那些不让你打仗的AI模型。”

随着谈判陷入胶着,Hegseth于2月24日将Dario Amodei召至五角大厦进行面对面会谈。根据一位了解讨论内容的人士描述,这次会面气氛尚称友善,但双方立场依旧坚决。Hegseth一开始称赞了Claude,并表示军方希望继续与Anthropic合作。Amodei则表示,公司可以接受五角大厦提出的大多数修改,但在两条“红线”问题上绝不让步。

第一条红线是:禁止将Claude用于完全自主的动能武器系统,即由AI而非人类做出最终打击决定的武器。

Anthropic并非认定自主武器本身必然是错的,而是认为Claude目前还不够可靠,无法在缺乏人类监督的情况下掌控这些系统。

第二条红线涉及对美国公民的大规模监控。政府希望能够利用Claude分析海量公开资料,但Anthropic认为,美国现行的隐私法律尚未跟上一个令人担忧的现实:政府正在从商业市场购买庞大的资料集。单独看,这些资料可能并不敏感,但一旦由AI加以分析,就可能生成关于美国公民私生活的详尽档案,涵盖政治立场、社交关系、性行为以及浏览记录。(不过,Anthropic并未反对以同样的方法对外国公民进行合法监控。)

Hegseth没有被说服。他给Amodei下达最后通牒:必须在2月27日周五下午5点之前接受国防部条款,否则就会被认定为“供应链风险”。

就在截止日期前一天,Anthropic收到一份修改后的合约,表面上接受了公司的“红线”,但仔细审阅后却发现其中为政府留下了漏洞。据一位熟悉谈判的人士透露,随着时间一点点逼近,Anthropic高管又与五角大厦AI负责人Emil Michael通话。他们认为双方已接近妥协,但仍在一个关键问题上存在分歧:五角大厦是否可以使用Claude分析从商业渠道购买的大规模美国人资料。Michael要求Amodei加入电话会议,但他当时无法出席。

几分钟后,在最后期限到来之际,Hegseth宣布谈判终止。甚至在此之前,Donald Trump就已经在自己的社交媒体上发声:“美利坚合众国绝不允许一家激进左翼、‘觉醒派’公司来决定我们的伟大军队如何作战并赢得胜利!Anthropic那些左翼狂热分子犯下了灾难性的错误。”

Anthropic不知道的是,五角大厦同时也在与OpenAI谈判,希望将ChatGPT引入机密政府系统。就在同一天晚上,Sam Altman宣布达成协议,并声称该协议同样尊重类似的安全红线。Amodei随即发讯给员工,称Altman与五角大厦是在“操弄舆论”,试图让公众误以为这项协议包含严格的安全护栏。此前,国防部官员也确认,xAI的模型将被部署在机密服务器上;五角大厦目前还在与Google进行谈判。

这正是Amodei一直担忧的局面:一场“向下竞争”的赛跑。当AI的力量强大到无法忽视时,竞争对手之间反而难以携手,共同拉高安全标准。

而在Anthropic的批评者看来,这一事件也揭露了公司核心的某种傲慢:它或许相信自己能在通往超人级机器的道路上安然驾驭,让承担如此巨大的风险变得值得。但现实却是,它正在将新的监控能力与战争技术迅速带入一个右翼政府体系,而当它试图为这些技术设定边界时,竞争对手已从背后超越。

风暴过后:Anthropic能挺过来吗?

不过,一些迹象显示,Anthropic或许能熬过这场冲击,甚至在过程中愈挫愈强。就在Hegseth试图签署“企业死刑令”的隔天早晨,旧金山总部外的人行道上出现了一行行用粉笔写下的鼓励留言。“你们给了我们勇气”,其中一条用醒目大字写道。

同一天,Claude的iPhone应用登上了App Store下载榜第一名,超越了ChatGPT。每天有逾一百万新人注册Claude。

与此同时,OpenAI与军方签署的合约却在内部和社群引发抵制。部分OpenAI员工认为,公司已经失去了信任。一位顶尖研究员宣布跳槽至Anthropic;OpenAI的机器人团队负责人则因这项政府合约愤而辞职。

OpenAICEOSam Altman也在随后坦承,自己急于在周五前谈妥五角大厦协议是一个错误。他写道:“这些问题极其复杂,需要清晰而充分的沟通。”到了周一,Altman进一步表示,他当时的行为确实“带有机会主义色彩”。OpenAI还表示已修改协议,明确采纳与Anthropic相同的安全红线。但法律专家指出,在未看到完整合约之前,很难确认此说法是否属实。

3月4日,Anthropic收到来自美国国防部的正式信函,确认公司被认定为国家安全供应链风险。Anthropic表示,这项认定的范围比Hegseth在社交媒体上的说法更

查看原文
免责声明:本页面信息可能来自第三方,不代表 Gate 的观点或意见。页面显示的内容仅供参考,不构成任何财务、投资或法律建议。Gate 对信息的准确性、完整性不作保证,对因使用本信息而产生的任何损失不承担责任。虚拟资产投资属高风险行为,价格波动剧烈,您可能损失全部投资本金。请充分了解相关风险,并根据自身财务状况和风险承受能力谨慎决策。具体内容详见声明
评论
0/400
暂无评论