| 编辑推荐: |
本文主要介绍了基于有人-无人编队(HMT)的空战自主控制相关的重要概念,目的是理解如何通过设计提高有人无人编队的空战效能。希望对你的学习有帮助。
本文来自于微信公众号软件定义战争,由火龙果软件Alice编辑,推荐。 |
|
在空战场中,AI 自主 Agent 正成为人类飞行员在万米高空的数字战友。
那么,如何在保持人类对致命武力行使有意义控制的同时,提升有人无人编队(HMT)的任务效能?
本文为此给大家介绍一些相关的重要概念,目的是理解如何通过设计提高有人无人编队的空战效能。
一、基于HMT人机编队的空战的简化模型
首先,在介绍这项研究之前,我们需要建立如下的世界观图像:
- 人类飞行员,是 Agent;
- 有人机/无人机作为飞行平台机器,是 Agent;
- AI 自主 Agent,运行在有人机/无人机机器之上,是 Agent;
- 三种 Agent 相互协作,通过人机编队HMT,共同完成任务;
- HMT 中的核心是控制权的动态分配;
- 理解HMT中的自主控制,需要理解自动化水平这个概念(详见本文参考资料[3]);自主不是0(完全手动)或1(完全自动化),而是一个逐步过渡的自动化连续统;
- 要形成人机编队HMT,人类飞行员 Agent 必须与 AI 自主 Agent 成为 HMT 团队中的队友,将人类飞行员
Agent 对有人机/无人机(即机器 Agent)的控制权,部分或全部委托给 AI 自主 Agent
进行控制(当然,也可以反过来,即 AI 自主 Agent 主动将控制权委托给人类飞行员)。
- 控制权的委托方式和程度,需要根据任务阶段、不同 Agent 的能力和状态、战场环境变化等因素,进行动态的调整。
- 人类飞行员 Agent 与 AI 自主 Agent 之间的控制权的转移,必须进行动态协调和优化,从而实现最优的控制效果。
- 整个控制过程中,为了实现空战中人类的有意义的控制(MHC),人类飞行员的控制权优先级应高于AI 自主
Agent。
根据上述图像,我们就可以画出基于HMT人机编队的空战的最简化模型:
二、空战中两种类型的交互
在有 AI 自主 Agent(即俗称的 AI CoPilot)和 HMT(人-机编队)之前,只有人类飞行员
Agent 和有人机机器 Agent。人类飞行员之间通过协作,形成 HHT(人-人编队)。
HHT 中的交互关系如下图所示:
飞行员有长机飞行员和僚机飞行员之分。他们都是人类,同时也是战友。长机飞行员和僚机飞行员之间,通过独立性和互依性,共同理解复杂的情境,形成人-人编队。
要实现基于 HMT 的空战,需要引入作为 AI 僚机的 AI 自主 Agent。
这样一来,就会产生两种不同类型的交互。
第一种是 AI-机器交互,其质量主要取决于机器 Agent的传感器融合、控制算法效率、响应速度、安全保障等技术。
第二种则是人类-AI 交互,这是人类飞行员 Agent 与 AI 自主 Agent 的交互。
在第一种交互即 AI-机器交互中,为了确保人类飞行员 Agent 或 AI 自主 Agent 下发的控制命令的执行安全,控制命令在执行之前,需要经过一个运行时安全保障模块处理,然后再发送给机器
Agent 执行。这个运行时安全保障模块的设计目标是,在确保飞行安全的前提下,同时尽可能提高其性能表现。关于这一块,本文不做展开,以后再介绍。
在第二种交互即人类-AI 交互中,人类飞行员 Agent 工作在高对抗、高信息密度的环境中,身体负荷和认知负荷可能迅速达到临界水平,影响感知、判断和决策能力。
在这种情况下,AI 自主 Agent 可以作为强大的决策支持助手,帮助飞行员从具体的任务中解脱出来,专注于高阶的任务目标。
与此同时,AI 自主 Agent 作为 AI 僚机飞行员,为了实现空战场的有意义的人类控制(MHC),它也需要接受人类飞行员
Agent 的指导、授权和约束限制。
在与 AI 自主 Agent 交互的过程中,人类飞行员 Agent 可以扮演多种角色:
- 信息提供者:人类飞行员 Agent 提供关键信息、专业领域知识、澄清人类意图,弥补 AI 自主 Agent
的知识空白;
- 决策行动控制者:在高风险或关键任务场景中,人类飞行员 Agent 接管决策权和控制权,确保关键决策节点的审慎判断和执行;
- 错误纠正者:通过评估输出和指导调整,人类飞行员 Agent 纠正 AI 自主 Agent 的偏差和错误。
当然,上述这些角色不是静态分配的,而是根据任务类型、任务阶段、粒度和反馈形式动态调整的。这种灵活性是
HMT 适应复杂空战环境的关键。
三、HMT 的三大优势
美国空军2025年新发布的人工智能条令(详见本文参考资料[2])明确指出,空军不需要人在环外的完全自主的能力,而是应该人在环内或人在环上的基于
HMT 的半自主能力。
HMT 有三大核心优势:
1.建立和提升人机信任
2.管理任务复杂性与指挥意图模糊性
3.明确问责链条
优势一:建立和提升人机信任
HMT 的人机互动性质,可以让人类飞行员 Agent 提供关键反馈、验证和实时纠正 AI 自主 Agent的决策、并引导
AI 自主 Agent 生成更准确可靠的输出。这种协作验证过程对于建立人机信任至关重要,特别是在错误成本高昂的空战场景中。
具体机制包括:
- 实时纠错:人类飞行员在生成过程中识别并修正错误
- 渐进澄清:通过多轮对话消除歧义
- 质量把关:最终输出的人类审核与确认
优势二:管理任务复杂性与指挥意图模糊性
与在模糊任务意图中挣扎的人在环外的 AI 自主 Agent 不同,HMT 由于人在环上/人在环内,人类飞行员
Agent 可持续澄清任务意图。
人类飞行员 Agent 向 AI 自主 Agent 提供必要的上下文、人类偏好、领域专业知识和模糊目标的渐进细化——这对复杂任务至关重要。
在任务执行过程中,AI 自主 Agent 可主动询问人类飞行员 Agent 澄清意图,而不是自己在那边揣测并做出错误假设和推断。
优势三:明确问责链条
AI 自主 Agent 可根据本文后面介绍的不同自动化水平(定义见本文4.1部分),在任务不同阶段进行决策并采取行动。
在各个任务阶段,根据所处的自动化水平等级,人类飞行员 Agent 和 AI 自主 Agent 都有相应的责任和义务。例如,自动化水平为6级时,计算机执行自己生成的选项,除非人类在有限时间内否决(Veto)。
我们只需要记录下各任务执行阶段下人类和机器各自的权力和责任,就很容易做到人机决策的事后的追溯问责。
这种问责可追溯性不仅是法律合规要求,更是 AI 赋能系统设计的基本伦理原则——确保权力与责任的对称分布。
四、重要概念说明
那么,人类飞行员 Agent 到底如何与 AI 自主 Agent 协作呢?
这就需要引入自动化水平、委托控制、适应性控制、自适应控制、联合行动、共同基础、依赖性、独立性、互依性等重要概念。
4.1 自动化水平
自主(autonomy)这个概念,很容易造成歧义。
老实说,我不太喜欢用这个概念。
事实上,一个反直觉的事实是,我们研究 HMT 和无人自主,其实大部分情况下都不需要也不应该用到自主这个概念。
取而代之的是,我们要用自动化(automation)这个更为明确的概念,来研究人-机协作。
本文不采用 SAE(国际汽车工程师协会)的 Level 0 ~ Level 5的自动化水平的定义,而是用下图更通用的自动化水平(LoA)的经典定义(详见本文参考资料[3])。
这个自动化水平的分级量表很细致,是麻省理工的学者1978年在研究水下深潜器的远程操作时提出的。它从人-机协作角度出发,将机器的自动化水平分为10个等级。
但是这个分级量表忽略了一个重要的点:现实世界中的人类与机器的协作,并不是一个步骤就可以完成的。实际上,人机编队协作通常都会分为多个阶段。
比如,潜艇或水面舰艇上的操作员操控多个水下无人深潜器(UUV)执行任务时,任务过程可分为多个阶段。在不同阶段或发生异常事件时,需要不同的自动化水平(详见本文参考资料[4])。
海上有人无人编队组成的打击包执行任务时,我们会将任务分为起飞、飞往任务区、执行任务、返航等阶段。不同阶段人类与机器的协作,其实需要不同的自动化水平。
有人无人编队打击包的任务过程。详见:有人-无人编队杀伤链的仿真分析
空战指控决策流程中,也需要不同等级的自动化水平。在不同的决策点,比如实施行动方案、生成指挥员意图、战场毁伤评估,显然所需的自动化水平是不同的。
所以我们需要在自动化水平的基础上,再增加一个维度:时间。于是我们就得到了下图:
人机编队系统在各个不同任务阶段时,并不存在唯一的最佳自动化水平。我们需要根据任务性质、环境、风险等级和人类操作员
Agent/AI自主 Agent 的能力和状态,在不同任务阶段进行差异化配置。
4.2 委托控制
一种最常见的人机协作方式就是任务(task)委托控制。
这种人机之间的委托控制方式,其实就是借鉴的人类组织中的委托控制,比如上级或同事将一个任务(task)委托(delegate)给下属或其他同事去完成。
对于空战来说,委托控制就是人类飞行员 Agent,理解任务意图后,将完成使命任务(mission)所需的具体任务(task)委托给
AI 自主 Agent,由后者再去控制机器 Agent(有人机或无人机)。
委托控制可以有多种实现方式:基于任务目标,基于playbook(详见蜂群之战十六:蜂群装备的空射效应蜂群、马赛克战超视距空战、OFFSET的Play本体)、基于约束(如交战规则、禁飞区等)、基于策略(如基于策略的强化学习的空战)。
传统的自动化系统通常采用固定的控制权限划分:要么人类完全控制,要么机器完全自主。这种二元对立的模式,难以应对未来空战的复杂性和多样性。
有了委托控制,就会形成一个复杂而又灵活的多维的委托控制空间(见下图示意图)。从图中我们可以看出,自动化水平只是委托控制空间的其中一个维度。
所以,根据情境复杂性、人类飞行员状态和任务目标,在委托控制空间中进行动态调整委托控制方式,就可以应对空战的复杂性和多样性,并同时确保人类对军事行动承担最终军事道德伦理法律上的责任。
也就是说,人类飞行员 Agent 委托给 AI 自主 Agent 的控制权,可以根据实时情境动态调整。
这样做的好处是,既可以既保证 AI 自主 Agent 降低人类飞行员 Agent 的认知负担,同时又确保人类飞行员
Agent 始终掌握最终决策权和控制权,并可以在关键时刻介入控制。
4.3 适应性控制 vs. 自适应控制
人类飞行员 Agent 与 AI 自主 Agent 之间的协作,由于委托控制的程度不同,就会形成一个适应控制的连续统。
在这个连续统的最两端,分别是适应性控制和自适应控制。
越往左侧,人类委托控制给 AI 自主 Agent 的任务(task)越少,因此不可预测性越低,但是人类的心理工作负荷越高。
越往右侧,人类委托控制给 AI 自主 Agent 的任务(task)越多,因此人类的心理工作负荷越低,但是
HMT 组成的系统的不可预测性越高。
这两个端点之间包含许多中间选择,每一种都代表着工作负荷、不可预测性和能力之间的不同权衡,以及人机角色和责任的不同组合。
系统能力(Competency,简写为C):系统在特定情境下正确行为的程度。当系统能够在更多情境下提供正确行为,或者能够对情境进行更精细区分时,系统能力就得到提升。人类心理工作负荷(Mental
Workload,简写为M):人类飞行员 Agent 使用系统时必须投入的注意力和认知能量。工作负荷是约束其他两个维度的主要因素,因为人类认知资源是有限的。系统不可预测性(Unpredictability,简写为U):人类飞行员
Agent 无法确切知道自动化将在何时做什么的程度。这种不可预测性源于人类飞行员 Agent 没有亲自执行系统中的所有操作,而是委托给
AI 自主 Agent。
这三个维度构成了一个相互制约的三角关系。要达到给定的 HMT 能力水平,必须在工作负荷和不可预测性之间做出权衡。
对于空战来说,将任务分配给 AI 自主 Agent可以减少人类飞行员 Agent 的工作负荷,但代价是增加不可预测性(至少对于被分派的任务而言);反之,通过让人类飞行员
Agent 执行具体任务(task)来减少不可预测性,则会增加他的工作负荷。
传统设计的问题在于,这种选择通常由设计者在设计时做出,并在所有运行情境中保持固定不变。而委托控制则将这种选择交到人类飞行员
Agent 或 AI 自主 Agent 手中,让他/它们在运行时根据具体情境决定。
4.4 联合活动与共同基础
基于委托控制的动态任务分派虽然提供了灵活性,但还有一个难题没解决:人类飞行员 Agent 与 AI
自主 Agent之间该如何协调?
所以,接下来我们需要来了解斯坦福大学著名心理学家赫伯特·克拉克的理论。
克拉克认为,演奏二重奏、握手、下棋、跳华尔兹、教学或做爱——这些活动都是联合活动,都需要两个以上的参与者协同工作才能成功。
这里面克拉克的关键洞察是,不同参与者之间如果要协同完成好联合活动,必须在内容(做什么)和过程(如何做)两个层面上进行协调。
甲和乙在钢琴上合奏莫扎特二重奏,他们不仅要演奏同一首曲目(内容协调),还必须同步进出、协调强弱变化、调整彼此的节奏和力度(过程协调)。
因此,基于HMT的空战,用克拉克的眼光来看,就是人类飞行员 Agent 与 AI 自主 Agent
这两类参与者协调完成的联合活动。人类飞行员 Agent 与 AI 自主 Agent 之间,不仅要在内容(具体执行什么任务task)层面上进行协调,还需要在过程(人类飞行员
Agent 与 AI 自主 Agent 之间如何沟通协作)层面上进行协调。
这些协调活动都建立在共同基础(common ground)之上——即参与者之间的相互知识、相互信念和相互假设。
人类飞行员 Agent 与 AI 自主 Agent 之间的委托控制,表面上看是控制权的转移,但是从赫伯特·克拉克的共同基础理论来看,其协调活动必须建立动态变化的共同基础(空战知识、任务意图、对对方的假设等)之上。
4.5 人机自主的协同设计范式
理解了克拉克的联合活动、参与者协调理论和共同基础这几个概念之后,我们就可以用它来回答前面的问题——人类飞行员
Agent 与 AI 自主 Agent之间该如何协调?
协同设计理论(详见参考资料[6]),受克拉克的理论启发,认为优秀的人机协同设计不应从个体能力出发,而要从参与者的互动协调关系质量出发,然后反向配置参与者个体能力。
协同设计理论给出了三个基于能力视角的概念定义:
- 依赖性(Dependence):当参与方在特定情境中缺乏执行任务(task)所需的能力时,就存在依赖性。
- 独立性(Independence):当参与方在特定情境中具备执行任务(task)所需的能力时,就存在独立性。
- 互依性(Interdependence):两个或多个参与方管理联合活动中必需(硬性)或机会性(软性)依赖的互补关系集合。
独立性和依赖性是描述性维度,关乎参与者自身的能力:比如机器能否识别目标、能否规划路径、能否避让威胁、能否打击目标。
互依性则是规范性维度,关乎参与者之间的协作关系:谁有权决定、谁需被通知、谁可临时干预控制、谁不许做什么。这是协同设计强调的调节关系。
| 维度 |
内涵 |
关联概念 |
描述性维度 (Descriptive) |
实体固有的能力——知识、技能、资源等 |
独立性、依赖性 |
规范性维度 (Prescriptive) |
外部调节关系——权力、责任、委托、许可/禁止 |
互依性 |
基于上述三个概念,我们就可以理解协同设计范式与传统的人机自主设计范式的差异了:
| 传统人机自主设计范式 |
协同设计范式 |
| 以独立性为目标 |
以互依性为原则 |
| 依赖性是待消除的负面状态 |
依赖性是需管理的客观存在 |
| 自主= 人或机器独立性的程度 |
自主= 支持互依性的人机配置 |
| 让人类或机器更强 |
让人机协作更有效 |
传统人机自主设计范式:先尽可能提升机器的自主性(让它能做的事情越多越好),再考虑如何与人类协调。这导致自主孤岛——机器自主能力越强,人类介入越困难,系统整体越脆弱。
协同设计范式:先分析人机编队要完成的联合活动所需的互依关系(需要什么样的协作),再据此确定人和机的自主性应如何配置。这种设计思路,就会带来人机协作生态——机器能力与人类能力互补嵌套,形成高绩效且韧性的人机协作系统。
上面的内容可能有点抽象,下面我们稍微展开解释下。
互依性(Interdependence)的精确定义
互依性描述了两个或多个参与方赖以管理联合活动中必需(硬性)或机会性(软性)依赖的互补关系集合。
这一定义包含三层意思:
第一,关系性。互依性不是参与者个体的属性,而是参与者之间的关系属性。它存在于参与方之间,而非某一方内部。在任何二元关系中,双方都在某种程度上依赖该关系,所以我们称其为互依。
第二,目的性。这些关系管理依赖性——既包括因自身能力缺乏而不得不施加的硬性依赖,也包括因效率提升而可以选择的软性依赖。人机之间的协调,就是管理多个人机参与者之间的互依性。
第三,互补性。关系必须是互补的——如火车头与车厢,不仅车厢依赖火车头,火车头也依赖车厢提供载货能力。同样地,僚机飞行员(AI
自主 Agent)依赖于长机飞行员(人类飞行员 Agent)的指导,长机飞行员也依赖于僚机飞行员的配合。联合活动是定义互依性的前提情境。
五、用上述概念分析空战 HMT 架构
理解上述第四部分的所有概念之后,我们就可以搞懂本文参考资料[1]提出的 HMT 空战架构。
5.1 整体架构
下图为整个 HMT 空战系统的完整的整体架构。
总体可分为四大核心模块:
- 特征获取模块:负责采集原始数据,用于多模态处理;
- 多模态处理模块:将原始数据转化为可解释的特征;
- 能力评估模块:根据态势感知提供的信息,量化评估人类 Agent、机器 Agent 和 AI Agent
的能力;
- 自适应控制模块:根据能力评估结果,结合任务阶段等因素,选择合适的适应性调整底层控制行为的自动化水平。
模块一:特征获取模块
1.人类 飞行员 Agent:通过生理传感器(如心率、皮电反应)、行为数据和静态信息(如训练水平、经验年限)捕获人类飞行员状态
2.机器 Agent:获取有人机、无人机飞机平台的GPS定位、飞行动态参数(速度、姿态、加速度)、燃油消耗等飞机状态数据
3.AI 自主 Agent:捕获 AI 僚机驾驶员的状态数据(注:这部分与原文不同);
4.环境:监测昼夜操作条件、风速、气压等外部环境因素
5.任务:提取目标与航路点、空域边界、交战规则等任务相关信息
模块二:多模态处理模块
- 态势感知指标:包括交战指数、心理负荷水平、压力水平、通信效率
- 飞机状态参数:航迹偏差、高度可变性、俯仰姿态、生存能力评估
- 环境感知:天气变化、能见度、雷达探测范围等
- 任务关键绩效指标:识别目标数量、拦截次数等
模块三:能力评估模块
- 有人驾驶飞机:特定能力维度(如导航精度、武器投放精度、电子战能力)
- 无人驾驶飞机:评估无人自主平台的相应能力集
- 额外团队成员:评估其他协作单元的能力,比如带有巡航导弹的驱逐舰等
能力评估模块采用协同设计方法,强调人类飞行员 Agent 与 AI 自主 Agent 之间的互依性。通过互依性分析,识别哪些任务(如高度控制、障碍物检测、航迹调整)可委托给AI
自主 Agent,哪些必须保留在人类飞行员 Agent 的控制之下。注:关于这种互依性分析的细节,可查看本文参考资料[6]。
模块四:适应性控制模块
- 航迹优化:基于实时威胁和任务目标动态调整飞行路径
- 障碍检测:识别并规避地形、人工障碍和敌方防空系统
- 目标搜索/识别:利用多源传感器数据自动识别和分类目标
- 高度控制:根据任务阶段和威胁环境优化飞行高度剖面
- 信号干扰与拦截:执行电子战任务,保护友方平台
这些功能模块的输出最终汇聚到空战指控决策支持系统,为空中作战优势提供决策依据,同时与历史数据库交互,实现空战经验的学习和模式识别。
5.2 实验环境组成
5.3 设计原则 -
协同设计:根据任务,分析设计人类飞行员 Agent 与 AI 自主 Agent 之间的互依性;’
- 动态的委托控制:实现人类飞行员 Agent 与 AI 自主Agent 之间的动态任务(task)分派;
- 数字仿真环境测试:在各种不同的空战任务场景中,量化评估 HMT 人机编队的任务表现;
- 反馈协调控制:基于心率、脑电波、眼球运动等传感器,实时测量人类飞行员 Agent 的表现,并用能力评估模块判断是否要将特定具体任务委托给
AI 自主 Agent;
- 异构 Agent 协调:根据能力和互依性,评估和优化人类飞行员 Agent 与 AI 自主 Agent
这两类 Agent 之间的协调过程;
- 有意义的人类控制:确保符合未来协同作战飞机系统及更广泛的空战协同作战条令的要求。
5.4 三种人机协作模式
为了便于实验对比,这项研究设计了三种人机协作模式:
- 基线模式:人类飞行员 Agent 完全控制,无任何 AI 自主 Agent 协助。这对应传统的人工操作场景,作为实验的基线对照。
- 手动模式:人类飞行员 Agent 可根据自身经验判断是否要激活 AI 自主 Agent,来让后者接管高度控制、电子干扰等具体任务(task)。
- 动态模式:能力评估模块(模块三)根据评估结果,动态建议人类飞行员 Agent 何时让 AI 自主
Agent 接管控制。
下表为三种模式的结果对比:
| 指标 |
基线模式 |
手动模式 |
动态模式 |
| 无线电通话 |
基线水平 |
负荷降低 |
AI建议通话时机,效果最佳 |
| 导航能力 |
纯人工导航 |
自动驾驶辅助,精度提升 |
AI动态优化航迹,效率最高 |
| 认知负荷管理 |
高负荷,易过载 |
负荷降低,但仍需监控 |
负荷最优分配,但需防认知自满 |
| 使命任务表现 |
64% |
81%,显著提升 |
89%,最佳绩效 |
| 地对空威胁规避 |
依赖人工探测 |
自动告警辅助 |
AI主动建议/接管规避机动 |
| 人机协作 |
无 |
有限(人类触发) |
高(AI 建议) |
| 具体任务完成时间 |
10.4分钟 |
10.5分钟 |
9.3分钟 |
|