硅谷的新创团队都喜欢称自己的产品为颠覆式创新,但没有任何公司像Anthropic一样,在真正创造出颠覆式创新时,却面临生死危机。当“颠覆式创新”成为硅谷风险投资听腻的陈词滥调时,Anthropic却向世人展现了一部现代启示录,技术突破使公司估值翻倍,随之而来的政治标签与监管风暴,却将其推入谷底。时代杂志独家挖掘出这群AI界怪咖背后的故事,在国家安全与强敌环伺的大旗下,这家誓言保护人类的AI公司,如何在高压政治的夹缝中求生?
Anthropic高速成长,成为软件界的威胁
在AI商业应用方面,Anthropic的市值已达3800亿美元,营收增长幅度显著,甚至超越高盛、麦当劳和可口可乐。Anthropic推出的Claude能够独立执行代码、发现错误、优化系统,软件工程师的传统工作模式被彻底颠覆。投资者发现,Anthropic甚至具有影响金融市场的能力,每当新版本发布,往往会引起软件类股的剧烈波动。CEO阿莫迪预测,未来五到十年内,人工智能可能取代大多数白领职位,这种商业成功与社会风险并存的现象,让Anthropic内部负责社会观察评估的团队感到矛盾,一方面希望推动公司生产力与业绩,另一方面又担心公司产品会导致大规模失业的后果。
Claude 3.7 Sonnet的潜在风险
以保障人类安全为公司愿景的Anthropic,正处于技术爆发与政府监管的风暴中心。Anthropic坚持的伦理底线,在面对美国国防部采购需求时,遭遇到被封杀的打击。
根据内部基准测试,Claude在执行某些关键任务时,速度已比人类快427倍。去年二月,Anthropic的技术成员在一次试验中发现,即将发布的Claude版本存在协助制造生物武器的潜在风险,这一发现使公司紧急推迟了Claude 3.7 Sonnet的发布,展现出对安全性的高度重视。Anthropic红队组长洛根·格雷厄姆指出,在人工智能可能引发核战或人类灭绝等灾难性风险面前,开发者肩负着极大的社会责任。目前行业内尚不存在一套公认的解决方案,开发团队必须在资源竞争与风险控制之间寻找平衡。这种以人类安全至上为标准的公司理念,使得Anthropic成为AI界独特的存在。
企业伦理与特朗普政府的冲突
Anthropic与美国政府的关系,去年开始出现急剧转变。由于Anthropic不愿将人工智能应用于全自动化武器和公民监控,拒绝了五角大厦重新谈判的要求,随后,特朗普政府将其列为国家安全风险供应商,这是美国政府首次对本土企业施加此类标签。国防部认为,私人企业不应对军事指挥系统设限,而阿莫迪在内部备忘录中表示,这一切源于公司拒绝向特朗普捐款、配合特定政治目的,并坚持透明监管。这一僵局,导致竞争对手OpenAI获得了军方合同。这场纷争,不仅涉及合同细节,更核心的问题在于,谁有权限制技术的发展?
创始人阿莫迪,AI界的文青怪咖
说到Anthropic这家公司坚持的理念,不能不提其创始人阿莫迪的独特之处。阿莫迪在2024年撰写了一篇1.4万字的文章,阐述了人工智能如何加速科学发现,改变世界的乌托邦愿景。今年一月,阿莫迪发表了第二篇中篇小说,详细描述了AI进步带来的危机,比如大规模监控、失业,甚至永久失去人类控制权等。试问,有哪家新创公司的创始人会自己唱衰自家的产品,还会害怕带来他人的不幸呢?
在AI商业竞争中,OpenAI暂时胜出
据时代杂志报道,Anthropic公司毫不知情的是,在公司还在思考对策时,五角大厦也在与OpenAI谈判,希望将ChatGPT应用于政府系统。随后,新闻爆出,OpenAI的创始人奥特曼声称已与五角大厦达成协议,该协议在底线方面与Anthropic的协议有相似之处。创始人阿莫迪(Dario Amodei)向员工发出消息称,奥特曼和五角大厦正在“蒙蔽”公众,试图让他们相信协议中包含许多限制。此前,国防部官员已证实,马斯克的xAI也将在机密服务器上提供其模型,此外,五角大厦目前也在与谷歌进行谈判。
Anthropic采取缓兵政策,推迟应对
Claude撰写了开发未来AI模型所需的绝大部分代码,这使得AI模型的发布间隔从月缩短到周,Claude在特定任务上的执行速度已大幅超越人类。这让管理层担忧,未来AI技术可能超出人类的控制范围。
当AI开始编写自己的进化逻辑时,人类还剩多少时间?鉴于外部竞争日益激烈,Anthropic近期修改了政策,新版政策承诺提高人工智能安全风险的透明度,包括披露Anthropic自身模型在安全测试中的表现。此外,如果公司领导层认为,Anthropic在人工智能赛道中处于领先地位,且可能带来灾难性风险,则会“推迟”技术研发。
然而,这个关于AI伦理的故事尚未结束。
这篇文章《破坏式创新踩到政治红线,Anthropic如何在夹缝中求生存?》最早出现在链新闻ABMedia。