2025年5月26日,《军事伦理学杂志》发表了题为《忠诚僚机、人工智能与认知增强:对赛博格-无人机战争的警示》(Loyal Wingmen, Artificial Intelligence, and Cognitive Enhancement: A Warning Against Cyborg-Drone Warfare)的研究文章,探讨了未来空战中整合人工智能并与载人飞机协同作战的“忠诚僚机”(Loyal Wingmen)武装无人机概念。“赛博格”是指具有有机和生物机电身体部件的生物。在军事领域,其概念可以扩展到士兵通过外骨骼、可穿戴计算机等技术增强自身能力。在“赛博格-无人机”战争(Cyborg-Drone)中,无人机被视为一种“赛博格”存在,即它们既依赖于人类的控制,又具备自主操作的能力。这种融合使得无人机在执行任务时能够结合人类的认知能力和机器的精确性。文章指出,虽然这种战术人机协同可能带来军事优势,但人工智能介入武器关键功能会引发伦理风险。为应对此风险,通过增强人类监管者认知能力(尤其是利用脑机接口)以实现“有意义的人类控制”成为一种潜在途径。该文分析,尽管脑机接口或能加速战场干预,防止人工智能相关伤害,但应警惕其带来的伦理弊端可能远超益处。启元洞见编译整理了其中的核心内容,以供读者参考。
一、引言
在空战实践中,飞行员是否应运用认知增强技术监督整合人工智能的武装无人机运作,已成为突出的伦理议题。“忠诚僚机”无人机概念是人工智能融入武器系统趋势的产物,设想此类飞行器作为“人机团队”一部分,伴随载人飞机进入军事对抗空域。核心伦理关切在于确保人工智能在无人机武器操作中的角色仍处于充分的人类控制之下。这种控制不仅是军事效能内在要求,更是战争中行使道德能动性、为暴力行为所致不公承担道德责任的前提。随着人工智能技术在武器系统内高速执行功能能力日增,人类操作员认知上难以跟上人工智能生成信息流的风险也随之加大。应对此风险的一种思路便是增强人类认知,加速人机交互。
目前,部分国家政府,如美英两国,倾向于利用人工智能技术补充而非取代人类作战人员,其公开政策是采纳人工智能以实现“人机协同”。即便如此,在人机协同作战情境下,部署人工智能赋能武器系统仍可能因缺乏“有意义的人类控制”而在道德上不可接受。从军事角度看,控制不足的武器系统同样不受欢迎。为此,一些军事机构开始探索增强人类认知能力,以期跟上人工智能信息处理步伐。例如,美军预测“赛博格”技术,包括“用于脑机接口的神经植入物”,将实现人类与无人机等武器系统的“无缝交互”。本文聚焦“忠诚僚机”,评估采用脑机接口(BCI)进行“赛博格-无人机”作战的假设性构想。
二、无人机作战向人机协同的转变
近二十年来,武装无人机主要用于低烈度冲突环境。然而,在面对更强对手、空域竞争更激烈的环境中,此类无人机作战模式难以为继,其远程通信链路易受干扰,机体也更易被先进防空系统摧毁。同时,西方国家空军也面临战斗机数量不足的战略隐忧。这种战略焦虑部分推动了美国军方的“第三次抵消”战略,其核心在于“运用机器或人工智能辅助人类决策和执行军事行动”。英国国防部亦有类似判断,认为“未来的军事优势”将取决于“人机在作战系统中的有效整合”。
战术层面上,“忠诚僚机”概念应运而生,即人工智能赋能的无人机与有人驾驶军机协同作战。此概念有望在飞行员数量减少的情况下,通过无人机集群维持作战“体量”。“忠诚僚机”是多国正在研发的“第六代”战斗机系统的核心组成部分。这些系统均基于一个核心假设:有人战斗机将与提供各类支援的无人机协同行动。克拉托斯XQ-58A“女武神”(Valkyrie)无人机即为该领域较先进的代表,其功能多由名为“天空博格”(Skyborg)的人工智能系统控制。
在前美国空军部长弗兰克·肯德尔(Frank Kendall)的设想中,一名飞行员可指挥多达五架“忠诚僚机”。飞行员的角色是“管理”无人机。从通信角度看,将人类监管者部署于无人机附近,比依赖远程操作员更具作战优势,因为短距离数据传输更难被敌方干扰,且数据交换延迟更短。这对于打击快速移动目标或及时中止攻击至关重要。“忠诚僚机”的物理邻近性,因其能实现更及时的干预,从而具备潜在的道德优势。
三、“忠诚僚机”与控制难题
从伦理视角审视,“忠诚僚机”概念的关键在于人工智能技术的整合及其影响。核心忧虑在于,这些武装人工智能赋能无人机在实际运作中可能脱离充分的人类控制。维持此类条件对于人道主义原因至关重要。人工智能固有地无法做出道德决策和承担道德责任。因此,人类对人工智能赋能武器系统暴力相关功能的控制程度,需要足够有意义。
美英两国的政策在一定程度上反映了这一要求,强调操作员应有能力干预和终止交战,并允许指挥官和操作员在使用武力方面行使适当水平的人类判断,确保“与情境相适应的人类参与”。“适当”一词暗示了并非任何形式的人类参与都足够,且其适宜性与具体情境相关。
“忠诚僚机”的良性功能可由人工智能执行。但雷神技术公司副总裁乔恩·诺曼(Jon Norman)设想了一个更令人担忧的情景:未来战场上,人工智能或允许飞行员派遣武装无人机至敌人阵地附近“随意开火”。即使无人机的关键功能仍需人类介入,对人工智能辅助暴力的有意义人类控制也需要从时间角度来理解:必须有机会及时否决人工智能,以防止因系统错误导致的意外影响和不公正伤害。
然而,在实践中,可能没有足够的时间进行此类仔细检查。有分析指出,“忠诚僚机”概念的一个问题是“尚不清楚行动中的战斗机飞行员是否有时间管理半自主助手”。在充满干扰的战斗环境中,非法目标可能在匆忙中被忽略。已经存在一些人工智能赋能武器系统,其运行速度之快,以至于其人类控制者感到力不从心。未来人机协同的高压情境下,缺乏人类深思熟虑和及时干预的机会,可能会加剧过度信任人工智能的问题。
人机交互领域的研究早已认识到现代人类倾向于“自动化偏见”。这种偏见可能导致人们高估人工智能生成输出的可靠性。随着战争日益数据驱动化,作战人员也可能经历信息过载,这同样有可能诱导对人工智能生成输出的过度信任。就“忠诚僚机”而言,从无人机向其人类监管者飞机传输数据可能会导致信息过载,从而削弱人类控制的意义。
“有意义人类控制”的潜力也部分取决于武器系统设计中考虑所谓“人类因素”的方式。美英政府均强调对操作员进行必要培训,并认识到人机界面的设计至关重要。就“忠诚僚机”而言,飞行员将需要“完全集成和优雅的界面”。然而,未来,如果人工智能技术更先进、作战环境更复杂,所需的人机接口机制可能会更复杂,人类对多架无人机的控制可能不再能够以有意义的方式持续。人类大脑处理信息的能力有限,一些国家关注实现系统操作员“可管理的认知负荷”。现代战争日益快节奏和数据驱动的特性在这方面构成了严峻挑战。
四、用于“赛博格-无人机”作战的脑机接口
面对数据丰富且人工智能辅助的战争以超人速度进行的前景,军事规划者可能最终被迫在人类控制和人工智能控制先进武器系统之间做出选择。值得考虑追求人工智能赋能武器系统有意义人类控制的第三种方法:改善人类认知。脑机接口是潜在实现此类改善的最具技术雄心的机制之一,空军飞行员可能成为首批使用者。
根据人机协同的战术逻辑,其军事优势在于结合各自的优势。通过与无人机“合作”,人类飞行员将得以“专注于关键认知任务”。然而,即使如此,有时也可能难以成功地持续执行这些关键任务。几十年来一直存在一种持续的做法,即使用药理干预来临时增强飞行员的注意力和警觉性。但在新兴的人机协同时代,依赖药理技术增强认知的一个问题是药物影响大脑需要时间。此外,维持有意义的人类控制可能需要旨在实现人机之间快速数据流动的认知增强技术。
电子脑机接口设备能够实现人脑与机器之间的双向通信,延续了“赛博格化”的传统。脑机接口技术可以消除对物理控制机制的需求,使人机交互能够以新的、更快的方式进行。当与人工智能技术相结合时,脑机接口有潜力让用户访问和交流大量信息。因此人们将脑机接口作为改进人机协同的技术。“意念控制”无人机的想法已存在了十多年。美军报告推测未来将使用脑机接口使士兵能够直接控制无人机等资产。兰德公司预测,未来战场上,人类思想可以通过脑机接口能力“导入人工智能软件”,允许操作员“同时控制多个技术平台”。
五、一项警示
认知增强也可以增强战争的道德性,如果它促进了对战斗员和平民的更好区分。就人工智能赋能无人机的空对地打击而言,让飞行员监管者靠近无人机对打击区附近的平民已经更有利。使用脑机接口可以假设性地加速飞行员的决策和行动以进行干预,因为人类的神经反应通常比其动能反应更快。
然而,“赛博格-无人机”战争也可能带来至少两种严重的伦理风险。第一种风险,仅与手术植入的脑机接口相关,即被俘的飞行员可能遭受无差别的伤害。一个已成为该飞行员身体一部分的接口设备,可能提供与附近“忠诚僚机”及其机载武器的持续连接。在这种情况下,敌人可能会合理地将一个已知的、无法被干扰的赛博格视为持续的军事威胁,即使其处于被俘状态。非战斗员身份可能在被俘的那一刻并未获得。传统上赋予战俘的法律保护可能会受到损害。
与使用脑机接口监督“忠诚僚机”相关的第二个伦理风险是,这些设备可能会在战斗中削弱飞行员的道德能动性。通过人工智能和人类智能的体验性模糊,使用脑机接口可能会加剧人类对人工智能过度信任的问题,从而削弱对人工智能赋能武器系统的人类控制的充分性。一些分析认为未来有意义的人类控制将关键取决于脑机接口。然而,在一个由两种不同类型的智能组成的人机团队的背景下,不宜审慎地假设人类将永远是主要的思考者。另一种可能性是,那些与人工智能赋能武器系统神经连接的人类,可能实质上成为人工智能的追随者。战斗机飞行员与“忠诚僚机”之间想象中的基于脑机接口的交互,不仅涉及从人类向无人机发送控制信号,还将涉及该无人机的人工智能将数据直接发送到飞行员的大脑。在这种传统的人类思维与人工智能数据处理之间中介层次的移除中,在这个认知融合的时刻,人类的道德能动性将不再对人工智能赋能的武器系统产生独立的影响。“忠诚僚机”将不受有意义的人类控制。
六、结论
为应对重大冲突做好准备的战略压力,正驱使一些国家发展一种新的无人机作战概念。“忠诚僚机”作为重要平台出现,用于增加“体量”和火力。从伦理角度看,关键问题在于,这些人机团队中的人工智能赋能无人机是否会在有意义的人类控制下运行
随着技术进步和战争节奏加快,武器系统的人类控制者将发现越来越难以理解系统的人工智能在做什么。未来,或许,即使是训练有素的人员使用高度直观的人机界面,也将难以行使有意义的控制。但对这种可能性的道德上更可取的反应,必然是规划赛博格式增强人类作战人员的大脑。飞行员使用脑机接口技术监督“忠诚僚机”,可能假设性地提供一个增加的机会进行快速干预。然而,这种人道主义益处可以说不足以成为理由,如果它同时也引入了严重的伦理风险。
如果脑机接口的更广泛影响是损害非战斗员身份和人类道德能动性,那么“赛博格-无人机”战争将是不公正的,应该避免。对未来使用人工智能赋能无人机的一种更审慎的方法是,继续要求它们在没有这种人类增强的情况下也能被有意义地控制。
来源:启元洞见 图片来源网络 侵删
1、本文只代表作者个人观点,不代表本站观点,仅供大家学习参考;
2、本站属于非营利性网站,如涉及版权和名誉问题,请及时与本站联系,我们将及时做相应处理;
3、欢迎各位网友光临阅览,文明上网,依法守规,IP可查。
作者 相关信息
内容 相关信息
• 昆仑专题 •
• 高端精神 •
• 新征程 新任务 新前景 •
• 习近平治国理政 理论与实践 •
• 国策建言 •
• 国资国企改革 •
• 雄安新区建设 •
• 党要管党 从严治党 •