夏洛山:AI武器上战场前夕 再引道德担忧
【大澳门威尼斯人赌场官网2024年10月14日讯】美国还需要多长时间才能做好与致命的自主攻击机器人并肩作战的准备?尽管答案还不确定,但可能不会很久。技术的发展使这种可能性相当的真实,同时也伴随着严重的道德风险。
在2022年乌克兰战争爆发之前,小型无人机就已经开始改变战争面貌。随着人工智能的快速发展,最新的攻击和侦察无人机在自主能力的加持下,能够在更少甚至无需操作员介入的情况下完成更多更复杂的任务。
10月10日,总部位于华盛顿的安杜里尔工业公司(Anduril)推出了Bolt系列便携式垂直起降(VTOL)自主飞行器(AAV),为完成战场上各种复杂任务提供了可能性。Bolt的基本型专为情报、监视、侦察(ISR)和搜救任务而设计。Bolt-M则是在原始的Bolt基础上发展而来的攻击型变体,旨在为地面部队提供致命的精确火力,自主执行准确追踪和打击目标的作战任务,同时为操作员提供四个简单的决策方式:观察、遵循什么规则、如何参与,以及何时发动攻击。
Bolt-M专为快速部署而设计,具有操作简单、便于携带的特点,可提供自主航路点导航、追踪和交战方式选项。它具有超过40分钟的续航时间和可以掩护地面部队作战的大约20公里的控制范围。而且,Bolt-M的弹药有效载荷达到3磅,可对静止或移动的地面目标包括轻型车辆、步兵、战壕等目标进行毁灭性打击。
目前,不管是战场上的乌克兰军队还是美国陆军的第一人称视角无人机(FPV,First-person view)操作员,都需要进行特殊培训才能执行任务,而且还有许多操作限制。人工智能的Bolt-M给FPV操作员带来的好处是,不再需要复杂的操作训练就可以胜任作战要求,并提供比现有无人机更多的信息和功能。
安杜里尔公司与美国海军签订了一份合同,在美国海军陆战队“建制内精确火力-轻型部队”(OPF-L,Organic Precision Fires-Light)项目背景下开发一种自主攻击型无人机。其核心技术体现在安杜里尔公司开发的Lattice平台提供的人工智能软件。操作员只需要在战场监视器上绘制边界框,设定一些规则,就可以让无人机自主地完成作战任务。
Bolt-M的自主能力来自Lattice平台,该平台可以整合来自各种感测器和原始数据库的信息,并将这种能力与各种无人机融合。Lattice平台在整个杀伤链上为无人机提供了尽可能多的自主能力,并让人类参与其中,以便他们能够更快地做出更好的决策。
一旦人工智能识别出目标,操作员就可以给Bolt-M指定一个目标区域,不管这个目标所在位置是否超出视觉监视范围,即使目标是移动的,系统也能够准确跟踪和瞄准目标。无人机内置的视觉和导引算法,能够在无人机与操作员失去连接的情况下,保持终端导引,并发动有效攻击。
Bolt-M还可以帮助其操作员了解战场上正在发生的情况,并按照操作员的指令跟踪、监视和攻击目标。比如俄罗斯的龟壳坦克或加装防护伪装的其它车辆,也许电脑无法识别,系统仍然可以将这种洞察力反馈给操作员,让操作员做出决定。关键是,这些具有致命杀伤能力的无人机可以在链路断开失去操作员控制的情况下,仍能保持对目标的控制并自主完成先前操作员发出的命令。
但是,Bolt-M的自主攻击能力还是突破了五角大楼原则极限,即机器人武器应该始终有人参与致命决策。五角大楼保留了一份人工智能道德原则清单,其中规定人类必须能够对人工智能武器“做出适当的判断,并对开发、部署和使用负责”。去年,五角大楼就试图澄清什么是允许的,什么是不允许的,同时留出空间,以便在情况改变时调整规则。
随着无人机在战场上更加有效,对自主攻击无人机的需求也在迅速增加。而像安杜里尔公司这样的工业部门,在技术上实现无人机自主攻击能力几乎已不成问题,关键是如何在道德约束和致命自主攻击之间取得平衡。工业部门不会去解决道德层面的问题,但是他们要根据政府的政策、参与规则的限制、管理和约束条件,以及使用者的要求,使系统尽可能强大。
然而,乌克兰战场的重要教训之一是战场条件可能变化得非常快。不同国家,无论是盟友还是对手,都会有不同的关于自主致命武器开发和使用的道德标准,这在很大程度上取决于战场上发生的事情。这种不确定性或没有共识的后果是严重的,因为虽然五角大楼和美国各部门大力强调人工智能的道德,以及确保使用致命武力的“人在循环中”的必要性,但几乎无法保证对手会接受类似的约束。这给五角大楼带来前所未有的风险,这也是为什么在作战行动和武器开发方面,目前美国军方、政府和工业部门有如此多的努力来优化人工智能、自主性和机器学习的使用。
美国陆军一直在为此积极努力,确保与人工智能安全相关的后续步骤实施。最近,美国陆军启动了“100天”人工智能风险评估计划,以确保、强化和改进人工智能系统在道德约束下的发展。这些努力强调人类和机器能力的重要性。
不仅五角大楼要求必须遵循关于“人在致命武力循环中”的原则,而且美国陆军技术开发人员也认识到,先进的人工智能计算方法,在某些方面根本无法复制人类至关重要的关键且更主观的意识,比如道德、直觉、意识、情感等等。这些只是决策核心的许多明显人类属性的一小部分,但这些属性在作战行动中可能是至关重要的。缺少人类属性的单纯技术,不仅存在道德风险,也可能不能完美应对复杂的战场局面。
责任编辑:连书华#