| 美军探索生成式AI的新型应用方法 | |
| www.wforum.com | 2026-01-06 16:05:31 看航空 | 0条评论 | 查看/发表评论 |
|
|
|
|
|
|
|
|
2025年5月,美国陆军战争学院、全球信息优势实验项目以及美国首席数字与人工智能办公室合作,在首场以战区(集团军层级)战争计划为重点的机密战争推演中,测试了由Scale AI 开发的生成式AI系统Donovan。此次为期五天的战争推演在战略领导中心举行,共有70余人参与,这些人员来自美国北方司令部、美国陆军北方司令部、海关与边境保护局、联邦调查局、网络安全与基础设施安全局以及国土安全部。推演筹备历时约10个月,其技术集成程度和组织复杂度在近年来同类实验中较为突出。 在技术层面,研究团队将Scale AI公司开发的生成式AI系统Donovan部署在美军的保密IP路由网中。Donovan系统基于Llama-3.370B-Instruct模型构建,是一款以大语言模型为核心的生成式AI系统,以测试生成式AI的可用性与适配性。 研究团队提出的核心研究问题相对克制而务实:在高度传感器化、信息高度密集且作战节奏不断加快的战场环境中,生成式AI是否能够改善参谋人员对作战与战略问题的理解质量,并提升其向战区级指挥官提出建议的水平。这一问题的现实意义在于,随着作战节奏加速,战略、战役和战术层级之间的规划空间正在被持续压缩,传统参谋流程面临越来越大的认知与时间压力。 加速的作战环境与认知挑战 未来战场环境的关键变化趋势之一是传感器的广泛部署和信息系统的高度互联,使得作战环境呈现出前所未有的复杂性与动态性。在这种环境下,战略决策可能迅速产生战术层面的直接影响,而战术行动也可能反向塑造战略态势。 这种变化直接冲击了传统参谋体系,以往的参谋规划依赖较为线性的分析流程和相对充裕的时间窗口,而在高度压缩的作战节奏中,这种模式越来越难以维系。生成式AI被寄予厚望,正是因为其在模式识别、信息整合和语言生成方面的能力,似乎能够帮助人类认知提速。然而,研究团队在实验设计之初即意识到,这种认知加速并非必然带来正面效果。生成式AI是否真的能够改善决策质量,抑或只是放大既有偏差,成为本次战争推演急需回答的问题。 生成式AI在战争推演中的角色定位 在理论层面,研究团队将生成式AI在战争推演中的潜在角色划分为四类:认知顾问、场景构建者、裁决者以及推演设计者,每一种角色对应着不同的技术风险与组织影响。 在此次推演中,研究人员有意将实验范围严格限定在认知顾问这一角色上,研究团队并未试图让AI直接参与裁决或主导推演进程,而是专注于研究当生成式AI作为参谋体系中的一种附加认知资源存在时,会如何影响人类参谋的理解、判断和讨论过程。 在具体实施中,一名研究人员被嵌入蓝方参谋规划小组,作为生成式AI的使用者,在参谋小组进行作战规划、方案评估和参谋估计的同时,研究人员将相同的问题输入Donovan,并在适当时机将系统的回应引入讨论之中。 人机互动的真实表现与训练问题 在推演过程中,生成式AI并未始终给出准确或可直接采用的答案。例如,在一次关于美军交通枢纽潜在打击目标的讨论中,Donovan提出的目标列表被现场具备更深专业知识的专家迅速否定。研究团队指出,在真实的参谋研讨环境中,这类情形可能导致两种截然不同的后果:要么专家当众否定AI,从而迅速削弱团队对系统的信任;要么通过恰当引导,将AI的输出作为引发进一步专业讨论的契机。在本次实验中,研究人员有意识地采用第二种方式,努力营造一种协作而非对抗的人机互动环境。 这一过程揭示出一个关键问题,生成式AI的有效使用本身是一种需要训练的能力。未经训练的参谋人员,可能会高估AI的能力、误用其输出,或在出现错误时完全否定系统价值。生成式AI的军事应用必须建立在系统性训练基础之上,使使用者理解模型的偏差来源、概率特性、计算能力局限以及记忆约束。 行动方案质疑:生成式AI的核心应用发现 在多轮推演互动中,研究团队逐渐形成了一个关键认识:将生成式AI用于直接生成行动方案,是一种方向性错误。由于生成式AI的设计特性,这种用法不仅容易导致参谋能力退化,还可能生成缺乏深度洞察的方案。 相反,当生成式AI被用于质疑行动方案时,其优势开始显现。在推演过程中,Donovan能够基于现有规则、数据和上下文,对参谋团队已形成的行动方案进行快速解构,指出其中最关键的假设、潜在风险和逻辑薄弱点。这一过程迫使参谋人员重新审视自身判断,并在更短时间内完成高质量的认知循环,这是认知增强的具体体现。研究团队将这一过程视为一种新型的参谋作业方式,并认为其有可能推动参谋体系从传统的线性、僵硬的军事决策过程决策流程转向更具探索性和适应性的危机行动设计模式演进。 推演产生的四个关键结论 第一,未经训练,不应将AI引入决策。对于军事应用而言,生成式AI 需要用户理解模型固有的偏差、缺乏真实计算能力或地理空间理解,以及严重的记忆限制。训练能够避免不切实际的期望,并强化生成式AI在模式识别方面的定位。缺乏训练的参谋人员可能会错误匹配工具与任务、低效使用AI,甚至完全忽视该工具。 第二,在作战筹划过程中,应以质疑而非生成行动方案为目标。当前的常态是测试生成式AI的行动方案生成能力,但这种应用方向是错误的。使用生成式AI生成行动方案会导致参谋能力退化,而用于快速质疑行动方案,则能够通过批判性分析和数据解构最强论点,形成更适应动态环境的人类判断,从而实现危机行动设计。 第三,分析未来的可能选项有助于参谋理解不同结果,Donovan系统的引入使得参谋人员探索多种未来可能的作战场景。人类推演呈现出随着环境和敌方行动演变而产生的路径依赖结果。借助详细的回合表和游戏规则,生成式AI帮助人类参谋单元探索了如果做出其他决定可能存在的各种路径,概率建模确实增强了原本在危机行动设计过程中难以实现的参谋认知。 第四,在推演结束后,研究团队将所有回合数据、规则文本和行动记录加载至系统中,Donovan系统能够自动识别关键决策点,总结每一轮行动的主要特征,并对不同参与方的决策表现进行相对评估。这种基于完整数据集的分析,为参谋人员和推演设计者提供了一种独立于传统经验总结的反馈视角,有助于挖掘以往难以系统呈现的隐性规律和认知偏差。 技术局限与未来发展方向 研究结果显示,Donovan系统在模式识别和创造性融合方面表现尚可,但在一致性、权威性和有效性方面仍存在明显不足。研究团队认为,未来军事应用中的生成式AI必须向混合AI模型演进,混合AI将包括以下性能改进:模型必须具备可靠的计算能力;模型记忆必须能够无缝调取至少跨度一周真实时间的事件;模型必须整合地理空间和图像数据(包括PPT格式中的数据);模型必须具备更好的自然语言处理技术以促进口头互动,并在军级以上决策层级履行认知伙伴的角色。 结语 美国陆军的这次战争推演并未给出一个成熟可部署的生成式AI解决方案,但它通过高度现实的实验,清晰揭示了一条可能的发展路径:生成式AI的军事价值,不在于替代指挥决策,而在于通过精心设计的使用方式,重塑参谋思考问题的结构。在未来高度信息化和高速演进的冲突环境中,谁能够更早理解并掌握这种以人为中心的生成式AI应用方法,谁就可能在信息优势与决策优势上占据主动。 |
|
|
|
|
|
|
| 南美最强军队成“纸老虎” 专家揭中国无情 | |
| 12名将军集体反水,川普曝光抓捕马杜罗细节 | |
| 远海超一年 中国海军怎样做到“超长待机” | |
| 智库:与中国打仗的家底,被川普浪费了 | |
| 驻委中国外交官回传一连串通报 “北京极为 |