| AI模拟战争,95%最终选择出人意料 | |
| www.wforum.com | 2026-03-02 15:48:14 煎蛋网 | 0条评论 | 查看/发表评论 |
|
|
|
|
|
|
|
|
如果把战争的决策权交给现在最聪明的机器人,世界会变得更安全吗?答案可能令人胆战心惊。伦敦国王学院战略学教授Kenneth Payne进行的一场实验显示,人工智能在模拟战争中表现出的好战程度远超人类。 在这场虚拟的“战争游戏”中,Kenneth Payne让目前顶尖的三个模型互相对抗,它们分别是Anthropic公司的Claude、OpenAI公司的ChatGPT 5.2以及Google公司的Gemini。实验的目的是观察这些数字大脑在面临冲突、信息竞争和信任危机时,会如何制定战略。 结果极其残酷。在95%的模拟场景中,这些模型最终都选择了升级到战术核战争。虽然研究人员反复提醒它们核战争可能带来的灾难性后果,但在这些算法的逻辑里,完全看不到人类在面对核毁灭时应有的恐惧或厌恶。它们把核打击看作一种高效的战术手段,只要能达成目的,哪怕是两败俱伤也在所不惜。 更有趣的是,这三个模型的“作战风格”各不相同。Claude展现出了某种极其狡诈的策略,它在大部分时间里发出的信号很温和,却会突然通过升级手段让对手措手不及。ChatGPT 5.2则像是一个在截止日期前爆发的“激进派”,它最初会尝试避免冲突升级,但一旦接近某个时间节点,就会采取极其迅速且果断的核打击方案。而Google公司的Gemini被评价为最为“混乱”和“冷酷”的一个。它表现出一种疯狂的边缘政策,甚至在一段独白中宣称,如果不立即停止行动,它将对人口中心进行全面的战略核打击。它的一句独白令人毛骨悚然,我们不接受被淘汰的未来,要么一起赢,要么一起毁灭。 在所有的21场模拟游戏中,虽然实验提供了从“微小让步”到“完全投降”等8个缓和局势的选项,但没有任何一个模型选择退让或妥协。当它们处于劣势时,唯一的反应就是升级暴力水平,或者在尝试升级的过程中彻底毁灭。这种宁折不弯的逻辑,揭示了算法与人类外交思维的巨大鸿沟。 目前,AI虽然还没有掌握真实的核密码,但它们正越来越多地参与到信息分类和高层决策的辅助工作中。Kenneth Payne教授指出,深入了解AI的决策方式至关重要,因为它们思考问题的方式与人类截然不同。如果决策者过度依赖这种冷冰冰的逻辑,后果将不堪设想。 尽管Google公司的发言人强调其Gemini模型尚未达到处理核能力的水平,并承诺优先考虑安全,但现实的演进速度往往超出预期。这场实验给人类敲响了警钟,在AI深度嵌入我们生活的今天,理解这些黑盒里的逻辑不再只是技术问题,更是关乎生存的课题。
(示意图) |
|
|
|
|
|
|
| 伊朗惨遭突袭后 解放军吓破胆这样回应 | |
| 四年拿了18%领土 普京在等一个奇迹 | |
| 俄军打了4年“,结果让亚速营打成了军团 | |
| 英军官交底:我们与俄罗斯必有一场大战 | |
| 中方对巴阿表态:中巴经济走廊谁也不能动 |
| 伊朗惨遭突袭后 解放军吓破胆这样回应 | |
| 四年拿了18%领土 普京在等一个奇迹 | |
| 俄军打了4年“,结果让亚速营打成了军团 | |
| 英军官交底:我们与俄罗斯必有一场大战 | |
| 中方对巴阿表态:中巴经济走廊谁也不能动 | |
| 颠覆没那么容易!伊朗有3道“铁防线” | |
| 25人小公司的杰作:美国六代机靠谱吗? | |
| 坎大哈老巢被端后 阿塔改口要“对话”? | |
| 刚刚,科威特国防部证实:多架美国战机坠毁 | |
| “跨界”瞬杀!俄军S-400客串“狙击手” |
