| 编辑推荐: |
本文探讨人类参谋和AI参谋,如何通过人机协作,产生比两者单独工作更优质的军事决策,希望对你的学习有帮助。
本文来自于软件定义战争,由火龙果软件Alice编辑,推荐。 |
|
AI 参谋协助人类进行军事决策,这是一个重要的研究课题。 但是,当前许多学术界的研究,都陷入了一个反直觉的研究误区——让 AI 参谋代替人类参谋来生成行动方案。
在本文介绍的美国陆军的一项研究里,作者提出了一个尖锐问题:如果人类和人工智能(AI)拥有截然不同的能力组合,为什么我们还让 AI 模仿人类的决策方式?
该研究主张:在军事决策流程的各个环节中,人类应该主导行动方案生成和道德伦理决策,而 AI 应该专注于行动方案的分析和评估。
这种人机协作的任务分工方式,是基于人类和AI两者认知能力优缺点互补的特性而特意设计的。
本文将深入解析这一研究,探讨人类参谋和AI参谋,如何通过人机协作,产生比两者单独工作更优质的军事决策。
一、人类与AI的认知能力的互补
要理解这项研究提出的人机互补协作,我们首先必须了解两者在认知能力上的根本差异。
1951年, 美国空军人类工程学部门主任保罗·费茨博士 发布了一份极具影响力的清单——菲茨清单,首次系统性地对比了人类与机器的优劣势。 这份清单至今仍是人机功能分配的基石。
| 人类更擅长 | 机器更擅长 |
| 发现矛盾/不一致性 |
在极端环境中工作 |
| 多样化感知 |
感知特定刺激 |
| 模式识别 |
响应速度 |
| 关注相关性 |
处理速度 |
| 创造性思维 |
重复操作的精确度 |
| 战略任务分配 |
多任务处理 |
| 灵活性 |
平滑施力控制 |
| 从经验中学习 |
精确执行 |
| 处理低概率事件 |
避免分心/抗干扰 |
| 归纳推理 |
演绎推理 |
菲茨清单揭示了三个人类与机器之间的根本差异。
首先,人类擅长抽象与概括,机器精于计算与执行。
人类能够毫不费力地识别模式中的微妙变化,具备创造性思维和灵活应变的能力,能够从经验中归纳规律。
相比之下,AI拥有极致的处理速度、精准度和多任务处理能力,能够在极端环境中持续运行而不受干扰。
其次,人类处理低概率事件的能力优于机器,但容易陷入认知误区。
人类能够察觉不一致性,对异常信号保持警觉,这种能力在应对突发威胁时至关重要。
然而,AI只有在程序或训练数据中明确包含某类低概率事件时才能识别它,否则就会完全忽视。这种盲区既是弱点也是优势——AI不会因突发噪音而偏离任务,而人类则容易受到认知干扰。
第三,人类依赖归纳推理,机器擅长演绎推理。
人类通过有限案例推断普遍规律,这种能力使我们在信息不完整时仍能做出合理猜测。
AI则通过既定算法从一般原则推导出具体结论,确保结果的逻辑一致性。
尽管AI技术在过去十多年间突飞猛进, 菲茨清单 的核心结论依然成立。深度学习让AI在模式识别上超越人类,强化学习使AI具备了一定的经验学习能力,但人类在战略思维、概念理解、创意生成和道德伦理判断方面的优势依然明显。
上述的人类和机器的能力差异,对于军事决策这样的复杂决策来说,其实是好事。人类与机器两者之间的上述能力差异,正好形成能力互补。
二、传统军事决策支持系统的研究误区
一个典型的决策支持系统,其目的是与人类协作者共同完成决策过程。
这个决策过程通常包括:理解现状(态势感知)、明确目标、生成多个行动方案、分析并比较这些行动方案,最终选择并执行最优行动方案。
在军事领域,这一过程被美军军事条令制度化为一个标准的 军事决策流程。 它包含如下七个步骤:
步骤一:接收任务。 指挥部传达问题情境,明确决策需求。
步骤二:任务分析。 团队收集情报,建立态势感知,理解作战环境的初始状态。
步骤三:行动方案开发。 这是纯粹的创意阶段,团队进行头脑风暴,提出所有可能的行动方案,不设限制地探索各种可能性。
步骤四:行动方案分析。 对每个可行的行动方案进行详细评估,计算风险、资源需求和成功概率。
步骤五:行动方案对比。 比较各行动方案的优劣,权衡成本与收益。
步骤六:方案批准。 指挥官基于道德伦理法律、交战规则和战略考量做出最终选择。
步骤七:命令生成与传达。 将指挥官决策转化为具体命令,传达给执行单位。
军事决策流程中最耗时、最繁重的环节是 第三步:行动方案开发 。
于是乎,当前许多学术界的 AI 研究者,都主张让军事决策支持系统自动化第三步,即由AI 来开发行动方案。
在瞬息万变的战场上,指挥官迫切需要参谋人员快速开发可行的作战计划。这似乎正是 AI 大显身手的绝佳机会——利用其超快的处理速度和多任务能力,自动生成大量备选行动方案。
因此,大量的理论研究和仿真实验都将重点放在了 自动化的行动方案生成 上。
然而,学术界的这些工作,在 现实世界的应用几乎完全失败了。无独有偶的是,在多学科设计优化(MDAO)领域,学术界的 MDAO 算法研究成果,在军工行业跨地理协作、知识产权、网络安全等约束下,也失败了。
为什么会出现这种理论与实际的脱节?
这项研究分析了其原因。他们指出,生成有效的行动方案需要菲茨清单上人类更擅长的能力。让 AI 承担这一机器并不擅长的任务,根本不合适。
也就是说,原因在于开发行动方案本质上是一项高度人类化的任务。 它要求的是菲茨清单左侧所列的那些人类专属技能:
- 关注相关性 :在海量信息中,识别出真正影响战局的关键因素。
- 创造性思维 :跳出常规,设计出出其不意的战术。
- 灵活性 :根据不断变化的战场态势,动态调整思路。
- 归纳推理 :从具体的战场细节中提炼出抽象的战略原则。
- 借鉴相关经验 :将历史成功失败战例,巧妙地应用到当前任务情境中。
- 处理低概率事件: 处理 AI 之前从未学习过的低概率事件。
那为什么行动方案开发这项工作必须要人类来完成呢?
有两个根本原因。
第一,真实世界的复杂性无法完全程序化。
仿真环境可以引入随机性,但所有变量都受限于研究者的假设。比如,战场信息都是可观测的,不存在战争迷雾,敌方也不会动态调整策略、战术和欺骗手段。
面对拥有自由意志的对手,其策略、战术和欺骗手段层出不穷,学术界的研究人员不可能预见所有可能性。AI 在处理低概率事件时表现糟糕,而真实战场充满了意外。
第二,行动方案开发需要理解许多难以量化的变量,不是单纯的数据处理。
有效的军事决策涉及大量定性因素——士气、政治影响、文化背景、伦理边界——这些难以量化的变量对AI构成根本障碍。
虽然存在 IBM Watson Analytics、Palantir Foundry 等强大的分析工具,来支持行动方案分析和行动方案对比(军事决策过程的第四、第五步),但 能够可靠生成真实世界行动方案的决策支持系统,在公开文献中尚未出现 。
这并不是因为 AI 技术暂时的不足,而是源于 AI 所擅长的能力的深层特征。 当前的 AI 基于统计模式和逻辑演绎,而人类决策依赖直觉、经验和概念理解。
三、一种务实的人机协作新模型
基于上述分析,这项研究为决策支持系统构建了一种新的人机协作模型。
其核心是 为军事决策流程的每个步骤分配适当的自动化等级 。自动化等级从1级(完全人工)到5级(完全自动),代表人类与AI的协作比例。
这个新的人机协作模型的核心思想是: 承认 AI 的局限性,并将其力量集中在它真正擅长、且能为人类决策提供最大价值的环节 。
为此,他们重新审视了军事决策流程的七个步骤,并基于菲茨清单和对AI当前能力的客观评估,为每个步骤分配了一个 自动化水平 。自动化水平是一个从1到5的量表,1表示完全由人类操作,5表示完全由AI自主完成。
以下是他们提出的新的人机协作模型的人机能力组合的具体配置。
步骤一(任务接收)和步骤七(命令生成、传达和分发):自动化水平为1(完全人工)。 这两个步骤主要涉及通信和行政流程,无需AI介入,传统数字工具已足够。
步骤二(任务分析): 自动化水平为 2(辅助模式)。 AI提供建议,设定地面变量,但人类掌控所有参数。虽然AI在态势感知方面能力日益增强,但概念层面的理解仍需人类把关。
步骤三(行动方案开发): 自动化水平为 1(完全人工)。 这个研究明确反对当前让AI生成方案的主流建议,坚持认为创意生成必须 完全由人类主导。不过,在此处设计了一个 迭代反馈循环 :步骤三生成的方案输入步骤四后,如果AI参谋对行动方案进行分析后,发现人类参谋生成的行动方案风险过高,会反馈要求人类重新生成行动方案。
步骤四( 行动 方案分析): 自动化水平为 5(完全自动)。 这是AI主导的唯一环节。一旦具体的行动方案开发完成,创造性需求降低,计算需求上升。AI可以拆解行动方案的各步骤,演绎推理预测概率结果,多线程追踪成功/失败概率,剔除低胜算的选项。
步骤五( 行动 方案对比): 自动化水平为 3(平等协作)。 AI 根据指挥官偏好、行动方案最优性、行动方案多样性、历史学习经验等,生成行动方案的推荐排序。
步骤六( 行动 方案批准): 自动化水平为 1(完全人工)。 法律、道德、伦理和交战规则决策是人类的专属领域,AI不应做出最终选择。 当涉及平民伤亡风险与任务成功率的权衡等主观价值判断时,人类必须掌握最终决定权。
| 步骤 | 名称 | 自动化等级 | 协作模式 | 关键特征 |
| 1 |
任务接收 |
1 |
完全人工 |
仅涉及通信和行政流程,无需 AI 介入 |
| 2 |
任务分析 |
2 |
AI辅助 |
AI 提供建议和变量设定,人类掌控所有参数 |
| 3 |
行动方案开发 |
1 |
完全人工 |
行动方案创意生成完全由人类主导;与步骤四形成迭代循环 |
| 4 |
行动方案分析 |
5 |
完全自动 |
AI 主导的唯一环节;量化评估行动方案、演绎推理、概率计算、淘汰低胜算选项 |
| 5 |
行动方案对比 |
3 |
平等协作 |
AI 对行动方案推荐排序,人类保留否决权;处理主观偏好和价值判断 |
| 6 |
行动方案批准 |
1 |
完全人工 |
道德伦理法律和交战规则等人类专属领域,AI不参与最终选择 |
| 7 |
命令生成、传达与过渡 |
1 |
完全人工 |
通信和行政流程,传统数字工具已足够 |
这个新的人机协作模型构成了一个沙漏型结构:两头(创意生成和伦理决策)完全由人类掌控,中间(行动方案分析)由 AI 强化,而在过渡地带(行动方案对比)实现人机平等协作。这种人机协作的能力组合配置,最大化了决策准确性,同时在适当环节缩短了响应时间。
此外,这个新的模型还引入了一个关键的 迭代机制 :如果 AI 在步骤四行动方案分析中发现,人类提出的所有行动方案都风险过高、不可行,它会将这一结果反馈给人类。人类参谋团队则需要回到步骤三,重新开发新的行动方案。这个迭代反馈的闭环,确保了军事决策过程既充分发挥了人类的创造力,又受到了 AI 严谨逻辑的约束。
通过这种人机能力分配方式,这项研究提出的人机协作模型,就巧妙地避开了人类和 AI 不擅长的能力短板,并将双方擅长的能力优势最大化。
也就是说,我们不再试图制造一个全能的 AI 参谋来完全代替人类参谋,而是打造了一个专注于 逻辑校验 和 风险评估 的超级助手,来增强人类参谋的能力。
四、新的人机协作模型的核心特征
接下来介绍这项研究提出的新的人机协作模型的四大核心特征。
这些特征不仅体现了人机协作模型在技术层面的创新,更揭示了其对人机协作本质的深刻理解。
| 特征维度 | 核心机制 | 解决的问题 |
| 决策绩效优化 |
战略性分配自动化水平 |
速度-准确性权衡困境 |
| 主观体验 |
降低负荷、提升可用性、AI信任校准 |
人类弃用或误用AI系统 |
| 启发式方法检测 |
AI 作为人类认知偏差的检查器 |
人类过度概括和思维捷径 |
| 不确定性评估 |
结构化概率分析 |
复杂信息环境中的风险量化 |
这四个特征共同体现了一个核心原则: AI 不应模仿人类思考,而应补强人类思维的薄弱环节 。当人类擅长创意但容易陷入认知偏差时,AI提供严谨的验证;当人类被不确定性迷雾遮挡视线时,AI提供结构化的概率评估。
4.1 提升决策绩效成果:在速度与准确性之间找到平衡
新的人机协作模型,其首要目标是优化决策的绩效表现。
决策绩效的核心维度包括两点:准确性与响应速度。
研究者引入了一个经典心理学原理—— 速度-准确性权衡 。这一原理指出,任何决策者在特定时刻都面临固定的性能极限:追求速度必然牺牲准确性,追求准确性则必须降低速度。
这一权衡原则同样适用于人机协作团队。在军事决策中,虽然速度至关重要,但准确性往往更为关键,因为每一个决策都关乎任务成败。传统的学术界的主流研究,都普遍主张自动化行动方案开发(即军事决策流程的第三步),理由是该步骤最耗时。
然而,这项研究挑战了这一学术界的传统共识:如果AI在行动方案生成上的能力远不及人类,而速度-准确性权衡适用于人机协作,那么强行加速第三步行动方案开发,只会以牺牲决策有效性为代价。
为此,新的人机协作模型的解决方案, 战略性地为军事决策流程的不同步骤,分配适当的自动化等级 :
- 任务分析(第二步)自动化水平设为2 :AI 具备一定态势感知能力,可在人类监督下节省时间而不牺牲准确性。
- 方案分析(第四步)自动化水平设为5 :高度计算密集型任务,AI可安全主导。
- 方案对比(第五步)自动化水平设为3 :人机平衡,兼顾计算客观性与价值主观性。
这种配置将有效决策置于首位,在确保准确性的前提下,仅在适当环节压缩响应时间。
4.2 改善主观体验:让人类愿意与AI合作
决策绩效并不是唯一考量。人类对 AI 拥有选择权——如果AI决策支持系统的设计忽视人类的使用体验,人类用户就不会愿意使用。
新的人机协作模型从三个主观维度优化用户体验:
心理负荷
理想状态下,AI 应减轻而非增加人类的认知负担。若 AI 被应用于其不擅长的领域(如行动方案开发),人类不得不检查和重做 AI 的工作,反而加重心理负荷。
新的人机协作模型确保 AI 仅在其能力边界内运作,避免人类陷入监督疲劳。
可用性
系统的主观易用性直接影响协作效率。新的人机协作模型建议开发者设计符合人类自然认知习惯的图形界面:
- 减少屏幕视觉干扰
- 引导注意力流向关键信息
- 以有序、可预测的方式组织信息
- 用可视化呈现替代复杂的计算处理需求
对自动化的信任
对 AI 的信任是人机协作的基石,但这里面存在双重风险:过度信任导致自动化偏见,信任不足导致系统弃用。
新的人机协作模型通过匹配自动化水平与AI实际能力来建立信任校准——当用户观察到 AI 在行动方案分析任务中表现卓越,在更具创意行动方案开发任务中明智地保持沉默,他们会相信AI决策支持系统知道自身的能力局限。这种自知之明反而增强人类用户对其的信任。
这项研究引用了西点军校的一项网络分析任务的发现:中等的自动化水平(人机平衡)比极端的自动化水平(完全人工或完全自动)产生更高的信任度。在完全人工模式下,人类感到负担过重,认为 AI 帮助不足;在完全自动模式下,人类感到自主权被剥夺,担心无法预防 AI 的失误。新的人机协作模型通过在行动方案开发这一关键环节保持人类控制,在行动方案分析环节赋予 AI 权力,找到了人机信任的平衡点。
4.3 启发式方法检测:AI作为认知偏差的守门人
新的人机协作模型中最独特的自动化水平设定是第四步(行动方案分析)的完全自动化。其自动化水平为最高的5分。
这一步骤紧随第三步(完全由人类执行的行动方案开发),AI 在此阶段的核心任务是 检查人类生成的行动方案的质量,特别是识别人类因为启发式方法带来的认知偏差 。
人类在决策分析时会不自觉地使用各种 启发式方法 ,这常常导致系统性错误。 启发式方法是人类节省认知资源的思维捷径,但在高压、复杂的军事决策中,它们常常成为认知陷阱。
例如,一位指挥官可能因为去年某个类似地形的成功突袭而印象深刻( 可得性启发式 ),便倾向于在新任务中再次采用相同的战术,却忽略了敌方防御策略可能已经改变这一关键差异。
新的人机协作模型,为此建议AI决策支持系统中,要内置 启发式方法数据库 ,包含各类启发式方法模式及其触发指标。AI分析人类生成的行动方案时,寻找映射到这些触发指标的模式。当检测到人类参谋生成的行动方案存在启发式方法认知偏差时,AI 参谋就向人类参谋发出警告,标明特定行动方案存在风险,并指出被忽视的关键差异。
这种 AI 参谋的干预不是对人类参谋权威的挑战,而是对人类认知的补盲。AI 凭借其演绎推理和多任务处理能力,能够同时追踪数百个变量,识别人类忽略的认知偏差。
4.4 不确定性评估:AI 的重大优势
在信息处理方面, AI 有一项日益成熟的专长—— 不确定性评估 。
在复杂环境中,数据海量但信息稀缺,AI 能够快速筛选数据、提取有用信息、量化分析不确定信息。
新的人机协作模型,建议AI决策支持系统从如下两个维度利用好AI所擅长的这一能力。
分类追踪不确定性
在任务分析和行动方案分析阶段,AI 可以系统性地标记和分类不确定信息,为人类决策者提供清晰的风险地图。
概率化不确定性估计
AI 擅长将不确定性量化为概率估计。
与行动方案开发不同,不确定性处理不涉及概念理解或创造性思维,而是纯粹的计算任务——整合多源信息、 更新概率分布、量化置信区间。这正是AI超越人类的能力范围。
真实世界的战场中,充满了不确定性。情报可能是不准确的,敌人的意图是隐藏的,天气是多变的。人类大脑在处理这种不确定性时,往往力不从心,陷入分析瘫痪。
而 AI,特别是那些基于概率模型(如贝叶斯网络)的 AI 参谋,在 量化和追踪不确定性 方面有着天然的优势。它可以清晰地计算出:“基于现有情报,敌方在A区域部署重兵的概率是70%,在B区域的概率是30%。” 当分析一个行动方案时,AI可以将这种不确定性层层传导,最终给出一个量化的任务成功率预测。
更重要的是,AI 可以将这种复杂的不确定性信息,以人类易于理解的方式(如风险热力图、概率分布图)直观地呈现在用户界面上。这让人类决策者能够清晰地看到每个方案背后的风险轮廓,从而做出更有准备的决策。
|