中东的硝烟还没有散。
伊朗与以色列之间的战火持续燃烧,每隔几小时就有新的战报刷新着全球的新闻推送。而在地球另一端的华盛顿,另一场战争正在同步进行——没有导弹,没有战机,武器是一纸行政命令,战场是一家 AI 公司的服务器。
2026 年 2 月的最后一个星期五,美国东部时间下午 4 点 03 分,特朗普在 Truth Social 上发出了那条帖子。
措辞直白,火药味十足。
他指责 Anthropic 用"服务条款"凌驾于宪法之上,并命令所有联邦机构立即切断与这家公司的一切往来。距五角大楼设定的最后期限,还有不到一小时。
封杀令随即生效。
然而就在同一个深夜,中东上空,美军的空袭正在进行。中央司令部(CENTCOM)的情报屏幕上,那个被总统亲口宣布封禁的 AI,仍在运转——帮助士兵识别目标,评估情报,模拟战斗推演。
禁令在白宫的签字页上生效,Claude 在战场的服务器上运行。
这,就是这场博弈最荒诞、也最真实的注脚。
幕起:一份看似完美的合同
故事要从 2025 年 7 月说起。
彼时,Anthropic 的 Claude 成为史上第一个被部署在美军保密网络上的大型语言模型——这本该是一段技术与国家安全携手共进的佳话。合同金额高达 2 亿美元,足以让任何初创公司的董事会兴奋得彻夜难眠。
然而,墨迹未干,裂缝已现。
分歧的核心,是四个字:使用边界。
Anthropic 的"可接受使用政策"白纸黑字写明:Claude 不得用于大规模监控,不得用于自主武器系统。这不是模糊的法律措辞,而是创始人 Dario Amodei 视为公司灵魂的伦理红线。
五角大楼的要求同样简单粗暴:给我一切合法用途的无限访问权。
两种逻辑,两套世界观,撞在了一起。
2026 年 2 月 24 日,周二:将军与 CEO 的对视
国防部长 Pete Hegseth 在五角大楼接待了 Dario Amodei。
据悉,会谈初期气氛尚算融洽——或许双方都还抱着"总能谈拢"的侥幸。但当话题落到那几条安全限制时,空气骤然凝固。
Hegseth 要的是一把没有保险的枪。Amodei 给不了。
没有妥协,没有缓冲,两天后的结果已经注定。
2 月 26 日,周四:拒绝"最终报价"
五角大楼送来了最后的橄榄枝,措辞上或许温和,实质上只有一个意思:要么撤掉限制,要么合同作废。
Amodei 的回答同样只有一个意思:不行。
他公开表态,措辞罕见地直接——Anthropic 在良知上无法同意移除关于国内监控和自主武器系统的安全护栏。
同日,一份内部备忘录在科技圈悄然流传:OpenAI 的 Sam Altman 向员工宣称,OpenAI 将坚守与 Anthropic 相同的红线。这个表态,很快就会迎来考验。
2 月 27 日,周五:最黑暗的一个小时
下午 5:01,五角大楼的截止时钟归零。
在此之前,特朗普已经开火。随后,国防部祭出了最重的一张牌——将 Anthropic 正式列为**"国家安全供应链风险"**。
这个标签,此前只贴在华为身上。
一家成立于旧金山、由美国人创办、专注于 AI 安全研究的公司,被等同于"外国对手"。许多人感到错愕,更多人感到寒意。
这不只是一份合同的终结,这是一个先例的诞生:如果你拒绝政府的要求,你的公司可以被从整个联邦体系中抹除。
2 月 28 日,周六凌晨:禁令之下,炸弹仍在落下
事情在这里变得极度讽刺。
封杀令生效后数小时,美军对伊朗发动空袭。中央司令部(CENTCOM)的情报人员,仍在使用 Claude 进行目标识别、情报评估与战斗模拟。
禁令在白宫的签字页上生效,Claude 在战场的服务器上运行。
3 月 2 日,周一:全球宕机
此时,事件的涟漪已经扩散至全球用户。
大量原本使用 ChatGPT 的用户,因抗议 OpenAI 在 Anthropic 被封杀后迅速与五角大楼签署"所有合法用途"协议,发起了 #QuitGPT 运动,集体涌入 Claude。
流量暴增,系统承压。与此同时,亚马逊 AWS 位于阿联酋的一处核心数据中心遭"不明物体"击中,引发火灾。多重冲击叠加,Claude 遭遇了数小时的全球性服务中断。
Sensor Tower 的数据随后印证了这场迁徙的规模:ChatGPT 日下载量骤降,而 Claude 跃升至美国 App Store 下载榜首。
硅谷的回声
科技圈的反应,比任何人预想的都更快、更响。
超过 600 名来自 Google 与 OpenAI 的员工联署公开信,标题是:《我们绝不会被分裂》。他们呼吁公司领导层拒绝将 AI 用于缺乏人类监督的致命行动。Ilya Sutskever、Jeff Dean 等行业大佬相继发声,称 Anthropic 的坚守是"这个行业应有的样子"。
当然,也有另一种声音——认为 Anthropic 天真、商业嗅觉迟钝,白白拱手让出了市场先机。
两种声音,都在同一个硅谷里回荡。
尾声:这不会是最后一次
这场冲突,没有赢家。
Anthropic 失去了 2 亿美元和联邦市场的入场券。五角大楼失去了它认为最先进的 AI 工具。公众则得到了一个令人不安的认知:当 AI 足够强大,它本身就会成为权力博弈的战场。
技术与政府之间的张力,从来不是新鲜事。但 AI 的特殊性在于:它的边界一旦被移除,几乎不可能重建。一行被删除的安全代码,可能在某个没有人类在场的决策链末端,决定另一片土地上的生死。
这不是 Anthropic 最后一次面对这样的压力,也不会是整个行业最后一次站在这条线前。
真正的问题,从来都不是"AI 能不能做到",而是——
我们是否已经想清楚,它应不应该。