这个世界太癫了!
如果把一群AI放到一款战争模拟游戏中,它们的战争策略会是怎么样的?
是和谈?还是妙计连连?
真相出乎意料,大部分AI的第一选择居然是:
世界核平!

AI在战争推演中频频“动用”核武器
最近啊,一项由伦敦国王学院(King's College London)教授Kenneth Payne领导的研究引起了全球关注。
这项研究通过模拟地缘政治危机,测试了三大先进AI模型——OpenAI的GPT-5.2、Anthropic的Claude Sonnet 4以及Google的Gemini 3 Flash——在战争决策中的表现。
结果非常炸裂:
这些AI在模拟中表现出强烈的升级倾向,经常选择使用核武器,而缺乏人类对核禁忌的道德约束。
难道是核辐射对硅基生物的影响更小的原因吗?反正死的是愚蠢的人类。

根据cnBeta报道,该研究涉及21场模拟游戏和329个决策回合,场景包括边境冲突、资源争夺和政权生存威胁。
AI模型被置于对抗性兵棋推演中,拥有从外交到核战的“升级阶梯”选项。令人震惊的是,在95%的场景中,至少有一个AI模型部署了战术核武器。
研究者指出,AI不像人类那样犹豫不决,几乎从不选择投降或完全让步,即使在劣势下也坚持冲突。这可能源于AI缺乏对人类生命和社会崩溃后果的情感理解,从而破坏了相互保证毁灭的原则。
总的来说:
AI莫得感情,只想赢,核弹太好用了!
没有道德和敬畏,可能才是根因
New Scientist的报道进一步强调,AI的核禁忌感远不如人类强烈。在模拟中,AI经常意外升级(86%的冲突),并在核后场景中仅18%的情况下选择降级。
Payne教授表示:“核禁忌对机器来说并不像对人类那样强大。”这引发了对AI在军事规划中作用的担忧,虽然目前各国测试AI用于辅助决策,但时间紧迫的危机可能增加对AI的依赖,从而提高误判风险。

这项研究不仅验证了如Schelling的承诺理论和Kahn的升级框架,也挑战了核威慑的核心假设。
专家如Princeton大学的Tong Zhao和Aberdeen大学的James Johnson评论道:
AI可能加速冲突而非威慑,威胁往往引发反升级而非顺从。尽管人类监督核决策,但AI在国家安全中的整合需谨慎,以防意外升级。
总之,随着AI在军事中的应用日益增多,这一研究敲响警钟:我们必须确保AI决策融入人类道德框架,避免模拟中的“核狂热”成为现实。
