和核武器一样,作为一种极其有效却又极其危险的战略武器,军事人工智能的治理在国际安全领域已然成为一个日益紧迫的议题。然而作者并未简单断言核武器与军事AI完全相同,而是巧妙地构建了一个基于核武器军控历史经验的三维分析框架,用以审视军事AI军控的机遇与陷阱。这三个维度构成了文章的核心研究思路和逻辑链条:
文章首先挑战了“技术决定论”的悲观叙事,即认为军事AI等具有重大战略优势的技术的扩散和军备竞赛不可避免。通过深入剖析核武器扩散史,作者揭示了令人惊讶的事实:自1960年代以来,核扩散远非预想中的“野火燎原”,而是呈现“冰川式”的缓慢蔓延。尽管多达56个国家曾具备发展核武器的理论能力,但最终只有10个国家成功拥核,9个国家现存核武库。驱动国家放弃核选择的因素远非单一的安全考量。
传统现实主义认为国家发展核武是应对安全威胁,即抵消常规劣势或对抗敌国核计划。然而,安全关切常被用作决策的事后合理化理由,且无法充分解释许多国家(如巴西、阿根廷、南非、利比亚、乌克兰)最终放弃核计划的现象。对此,作者提出两个解释模型用以补充。其一为国内政治模型。国内行为体基于各自的官僚或政治利益,形成支持或反对核武器扩散的联盟。例如,印度在1964年中国核试验后并未立即加速核武计划,而是经历了长达十年的官僚博弈;巴西和阿根廷则在自由化政权上台后,在倾向融入全球经济的联盟推动下放弃了核野心,认为相关防务项目造成“浪费资源”。其二为规范模型。国际和国内规范发挥着关键作用。全球性的“核禁忌”以及以《不扩散核武器条约》(NPT)、《全面禁止核试验条约》(CTBT)为代表的国际法律文书,构建了强大的反扩散规范框架。这些规范通过国际机制发挥作用,成为协调多边制裁或奖励的“谢林点”(Schelling Point)。更重要的是,它们能渗透到国内政治层面,传播不扩散的规范、利益和认同,从而影响国内政治偏好,增强国内反扩散联盟的力量。即使在不自由国家,精英也可能内化“遵守条约义务=成功国家”的规范,或出于维护国际声誉的需要而选择遵守。
在这一分析框架下,军事AI军控具备可行性,安全关切虽是诱因但非决定性因素。首先,强化国内反对特定高风险军事AI扩散的联盟是影响国家决策的有效途径。值得注意的是,由于军事AI的效益线性增长、附带民用价值、声誉成本较低,其吸引力可能更加广泛,同时在某些高对抗性领域(例如空战AI)可能存在“赢家通吃”效应,因此亦需降低次优能力开发的动力,为精准干预提供可能。其次,塑造规范至关重要。当前公众舆论在多数国家普遍反对“杀手机器人”,但其支持率高度依赖特定具体情境。因此需利用国际机制和精英或专家社群推动规范制度化。但由于AI应用广泛、异质性强,“红线”模糊,针对军事AI的“禁忌”可能不如核禁忌那般强大和统一。故倡导者需超越“杀手机器人”的狭隘焦点,关注更广泛的伦理、安全、稳定性风险。
文章探讨了“自下而上”通过专家共识推动军控的可能性,并以1972年《反弹道导弹条约》(ABM Treaty)的成功谈判为典型案例。作者引入“认知共同体”(Epistemic Community)概念:一个由拥有政策相关领域权威知识的专家组成的网络,他们共享专业知识、因果信念、规范性信念(关于该领域人类福祉)以及共同的政策项目。在此基础上,ABM条约证明,早期组织起来并形成共识的国家级认知共同体,在风险尚处理论阶段时便可框定政治讨论、影响政策走向,甚至为敌对国家间的双边军控铺路。早期行动具有“时间溢价”,能在关键行为体将特定AI武器纳入战略核心前设定话语框架。与此同时,认知共同体的影响具有历史偶然性和脆弱性:其进程缓慢,易受政府更迭或国际氛围突变影响。更关键的是,当前针对军事AI的认知共同体尚不成熟。尽管科技界存在反对军事化的行动,如致联合国公开信、谷歌员工抗议,但专家群体在地理和观点上高度分散,缺乏像当年反对ABM那样接近90%的专家共识,距达成有效共识的门槛还有一段距离。

文章提出了一个更为悲观的论点,直指当前军事AI治理(尤其针对自主武器)核心原则,认为所谓“有意义的人类控制”存在内在局限性。作者援引社会学家查尔斯·佩洛(Charles Perrow)的“正常事故理论”和卡尔·萨根(Carl Sagan)对核武器事故史的研究,通过系统视角总结出核武器易发灾难性事故的关键操作特征。核武历史表明,对于具有高交互复杂性和紧密耦合性、在竞争环境中由多目标组织运营的技术,灾难性事故级联难以避免。而未来军事AI系统的规模、互联性和应用场景的复杂性,将远超核指挥控制系统。同时,对抗背景下强调速度、先发制人,因而存在巨大误判空间。战场AI需基于不完整、混乱的数据决策,追求对抗AI的反应速度,这极大增加了AI系统间意外交互或事故级联的风险,可能导致类似金融“闪崩”的“闪电战”。故作者认为,在易发“正常事故”的复杂、紧密耦合、网络化的军事AI系统中,以及人类操作员易受“自动化偏见”影响的情况下,“有意义人类控制”的承诺在实践中往往是虚假的,无法作为确保安全的可靠基石。当前认知共同体聚焦于禁止或限制“杀手机器人”的伦理或法律诉求,可能已在两个方面出现“脱靶”:一是忽视了更广泛的军事AI系统所构成的重大风险;二是过度信赖“人类控制”这一本身在复杂系统中就不可靠的方案。
综合上述分析,作者对军事AI国际军控的可行性得出审慎乐观且具实践指导意义的结论:军控具备可行性,但非易事。 尽管存在对AI军备竞赛的普遍担忧,但核武器管控的历史表明,涉及战略吸引力技术的军备竞赛是可以被减缓、引导甚至遏制的,AI军备竞赛并非不可避免的命运。因此,在塑造国内政治联盟、国际约束性规范之外,全球军控努力亦需关注远超动能自主武器之外的广泛军事AI应用,综合运用历史上驱动军控的四大理据——不仅包括伦理和合法性,更要突出战略稳定性和操作安全性。这种组合策略能提供对国内不同政治行为体更具说服力的论点,更利于规范传播和制度化,并针对军事AI带来的全谱系风险。
本文的核心创新与贡献在于其深刻的跨学科视角和历史比较方法论。作者通过运用类比框架,系统性地将核武器这一经典军控案例的经验教训提炼并应用于新兴的军事AI治理领域,为理解AI军控的独特挑战与潜在路径提供了坚实的历史基础和结构化分析工具。这种深度的历史比较在AI治理研究中尚属前沿。同时本文不仅停留在理论分析,更明确指出当前治理努力的盲点,并提出了具体的转型方向,对政策制定者和倡导者具有直接参考价值。
然而,该研究依旧存在一定局限与不足。本文对非国家行为体影响评估有限,虽然提到私营部门在AI创新中的关键作用及其对治理的影响,但对于非国家行为体获取或滥用军事AI技术带来的独特挑战及其对军控有效性的影响讨论相对简略。此外,文章量化实证支撑相对薄弱,对规范影响、认知共同体效能等关键机制的论证主要依赖历史案例分析和定性研究,缺乏更系统的量化数据进行更精确的支撑。
总体上,本文最重要的启示在于破除了军控领域的宿命论:面对强大的颠覆性技术,国际社会并非束手无策。通过主动塑造规范、构建专家共识、设计针对性机制,可以有效管理和降低军事AI带来的全球性风险。在其基础上,未来研究可以深化对特定军事AI技术的安全漏洞、事故模式等的探索,同时将非国家行为体进一步纳入治理框架,为理解军事AI国际军控的复杂图景提供更深层次的阐述。