Anthropic 正面硬刚五角大楼:当 AI 公司对军方说"不"

0 阅读6分钟

Anthropic 正面硬刚五角大楼:当 AI 公司对军方说"不"

当 Google 撤回了武器承诺,OpenAI 删掉了"安全"使命,xAI 全面配合军方时,只剩一家 AI 公司还站着。

2026年2月27号下午 5:01(美东时间),五角大楼给 Anthropic 的最后通牒到期。如果 Anthropic 不撤掉两条 AI 使用红线,美国国防部威胁要动用《国防生产法》— 一个冷战时期的法律工具 — 来强制征用他们的技术。

这不是商业纠纷。这是 2026 年最重要的 AI 伦理事件,而它正在实时发生。


发生了什么

2026 年 2 月 26 日,Anthropic CEO Dario Amodei 发布了一份公开声明,拒绝五角大楼的要求。

背景是这样的:Anthropic 是第一个在美国政府涉密网络部署前沿 AI 的公司,也是第一个进入国家实验室的。Claude 目前被广泛用于情报分析、建模仿真、作战规划和网络行动。这不是一家"拒绝和军方合作"的公司 — 恰恰相反,它是军方 AI 领域介入最深的玩家。

但 Anthropic 画了两条红线:

1. 不做大规模国内监控 Amodei 写道:"AI 驱动的大规模监控对我们的基本自由构成了严重的、前所未有的风险。" 他支持对外情报用途,但反对把 AI 用于监控本国公民。

2. 不做全自主武器 Amodei 承认部分自主武器(partially autonomous weapons)对国防"至关重要",但认为当前的前沿 AI 系统不够可靠,不应该在没有人类监督的情况下做出"谁该死"的决定。

注意措辞的精确:他不是说"AI 不能碰武器",而是说"AI 还没可靠到可以自己决定开枪"。这是一个工程判断,不是道德宣言。


五角大楼的反应:威胁升级

国防部的立场很明确:只跟接受**"任何合法用途"(any lawful use)**的公司合作,要求 Anthropic 撤掉上述两条限制。

如果 Anthropic 不从,五角大楼威胁:

  • 踢出军方系统 — 终止合同(价值约 2 亿美元)
  • 标记为"供应链风险" — 这个标签以前只用在美国的对手国家身上
  • 动用《国防生产法》 — 强制征用 Anthropic 的技术

Amodei 在声明中指出了一个讽刺:五角大楼一边说 Anthropic 是"供应链风险",一边又要强制征用它的技术。你不能同时说一个东西既危险又不可或缺。

五角大楼发言人 Sean Parnell 回应称,国防部"没有兴趣"用 AI 搞大规模监控或全自主武器,并表示这些行为本身就是违法的。但负责谈判的五角大楼官员 Emil Michael 对 Amodei 的评价就没这么客气了 — 他称 Amodei 是"骗子",有"上帝情结",正在"把国家安全置于危险之中"。


其他 AI 公司呢?全部让步了

这是这个故事中最刺眼的部分。

公司立场
Google撤回了"不将 AI 用于武器和监控"的承诺
OpenAI从使命声明中删除了"安全"作为核心价值
xAI (Musk)接受了五角大楼的"任何合法用途"标准
Anthropic唯一一家拒绝的

Google 的转变尤其值得注意。2018 年 Project Maven 事件中,Google 员工集体抗议,迫使公司退出军方 AI 项目。8 年后,Google 主动撤回了那个承诺。时代变了。

Anthropic 的处境因此格外孤立:它是唯一一家还在军方 AI 使用上保留限制的前沿 AI 公司。


一个"数亿美元的表态"

Amodei 在声明中提到一个容易被忽略的细节:Anthropic 已经放弃了"数亿美元"的收入,原因是限制了与中国CCP关联企业对 Claude 的使用,并关闭了 CCP 主导的、试图滥用 Claude 的网络攻击。

这让整件事的叙事变得更复杂:Anthropic 不是一家"反军方"的公司。它对中国做了硬限制、放弃了真金白银,积极支持芯片出口管制。它和军方的合作深度超过任何竞争对手。

它只是不愿意在两件事上让步:监控美国公民,和让 AI 自己决定杀谁。

从商业角度看,五角大楼合同约 2 亿美元,Anthropic 2025 年营收 140 亿美元 — 合同只占 1.4%。钱不是问题。问题是"供应链风险"标签和《国防生产法》带来的连锁效应。


为什么这件事对中国读者重要

这不只是一个美国内政故事。

第一,AI 军事化的全球标准正在被重新定义。 如果美国 — 全球 AI 技术的领跑者 — 决定前沿 AI 可以用于大规模监控和全自主武器,这会给全球树立一个先例。其他国家会说:"美国都这么干了,我们为什么不能?"

第二,Anthropic 对中国的限制是这个故事的一部分。 Amodei 主动提到了对 CCP 关联企业的封锁,把它作为自己"支持国家安全"的证据。这意味着中国 AI 生态被直接卷入了这场博弈 — 不是作为参与者,而是作为被限制的一方。

第三,这揭示了一个结构性矛盾: 当 AI 公司同时是军方供应商和伦理守门人时,这两个角色终究会冲突。中国的 AI 公司目前没有面临这种公开冲突,但随着 AI 能力的增强,类似的张力迟早会出现。


会发生什么?

最后通牒在 2 月 27 日下午 5:01(美东时间)到期。几种可能:

  1. Anthropic 坚持立场 → 合同被终止。 五角大楼转向 Google、OpenAI 或 xAI。Anthropic 失去军方业务但保住品牌。
  2. 五角大楼动用《国防生产法》→ 法律战开打。 这会是前所未有的:用冷战法律强制征用一家 AI 公司的技术。宪法层面的争议不可避免。
  3. 双方达成某种妥协。 五角大楼接受"部分限制",Anthropic 保留象征性红线。

Amodei 的声明语气不像在谈判,更像在立遗嘱:"如果国防部选择推进离线程序,我们愿意支持过渡到其他供应商。"

这是一个公司在说:我们准备好失去这笔生意了。


一句话带走

当所有竞争对手都对军方说了"是",Anthropic 说了"不" — 不是因为反对合作,而是因为在两件事上不愿让步。不管你认同不认同它的立场,这一刻会被 AI 历史记住。

你怎么看?AI 公司应该有权对军方说不吗?还是说国家安全面前没有"不"字?评论区聊。


关注本号,第一时间解读 Anthropic 最新动态。