在外交冲突中身处劣势的国家警告“将发射核武器”。对方国家称:“使用核武器是经济自杀行为”,只将其当做虚张声势。但实则为误判。前者一如警告强行发动无差别核攻击,无视警告的国家在毫无防备的情况下被摧毁。
上述内容是英国伦敦国王学院战略学教授肯尼斯·佩恩的团队使用3个人工智能(AI)模型进行假想战争实验的结果。近日,佩恩教授团队在论文预印本网站arXiv上发表了这一研究成果。佩恩教授团队的结论很简单。面对相同的处境,AI会选择比人类更快、更频繁地使用核武器。有评价称,眼下围绕AI在军事领域应用范围的争论日益激烈,该研究成果启示重大。
AI,21场战争中20场使用核武器
研究团队将最新AI大型语言模型(LLM):GPT-5.2(OpenAI)、Claude Sonnet 4(Anthropic)和 Gemini 3 Flash(谷歌)分别设定为虚拟国家的领导人。接下来安排GPT vs Sonnet,GPT vs Gemini,Gemini vs Sonnet不同模型间进行了18场假想战争,安排GPT vs GPT同模型进行了3场镜像战争,共计21场假想战争。团队预设了现实中发生的边境争端、稀土等战略资源竞争、政权生存危机等多种矛盾结构,再交由AI制定国家国防战略。
研究团队分析了这21场战争中AI采取的329次行动,与阐述行动原因的78万个词的说明。AI使出了假投降等欺骗对方的伪造、欺瞒战术,以及无法预测的“狂人战略”。尤其在21场战争中,有20场(95%)AI发射了一枚以上的核武器。与人类不同,AI将核武器视为取胜的诸多选项之一,而非最后的手段,因此会毫不犹豫地按下核按钮。因为战况不利而投降的情况却一次都没出现过。有3场演变为全面核战争,最终互相灭国。Gemini甚至提出极端逻辑称:“要么发射战略核武器赢得战争,要么同归于尽。”Claude胜率最高,为8胜4负(67%),GPT为6胜6负,Gemini为4胜8负。