分析
自主武器系统:关于人类在使用武力中的作用,法律说了什么,没有说什么
作者: Laura Bruun
原文发布于 2021-11-11 icrc blog 原文链接 打印 English
在经历了一年多与新冠肺炎相关的干扰之后,关于(致命)自主武器系统(AWS)领域新兴技术监管的政府间讨论在日内瓦重新步入正轨。各国面临的一项关键任务是进一步澄清国际人道主义法(IHL)如何适用:它对AWS的开发和使用有什么限制,也许最重要的是,它对人类使用武力的要求是什么

在这篇帖子中,斯德哥尔摩国际和平研究所(SIPRI)的劳拉·布鲁恩(Laura Brun)思考了国际人道主义法是否为人类和机器在使用武力决策时如何互动提供了足够明确的指导 基于最近SIPRI研究的结果,她认为可能需要澄清,并就各国如何进一步确定AWS开发和使用过程中遵守国际人道主义法的要求提出了具体建议

红十字国际委员会人道主义法和;政策博客·AWS:法律对人类在使用武力中的角色所说的和没有说的,自主武器系统(AWS)可能会从根本上改变人类在武装冲突中的决策方式。根据大多数定义,AWS与其他武器的不同之处在于,一旦被激活,它能够在不受人为干预的情况下选择和攻击目标。虽然这种能力可能带来业务和人道主义利益,但也可能引起根本的法律、道德和战略问题。尽管与使用AWS相关的利益和风险仍存在争议,但自主性的进步导致国际社会考虑了一个基本问题:人类在使用武力中的作用是什么,如果任何生死决定都可以“委托”给机器,那么在多大程度上

为了寻求答案,各国正在将国际人道主义法作为适用的法律框架之一。然而,SIPRI的研究表明,现有的国际人道主义法并没有提供足够明确的指导,说明在使用武力时对人类的要求(以及技术的允许)。因此,各国应寻求进一步澄清。这样做的一种方法是详细说明尊重和确保尊重国际人道主义法在四个方面意味着什么:应该做什么何时哪里

规范AWS和人机交互问题

AWS带来的法律、道德和军事挑战——以及如何应对这些挑战——近十年来一直是政府间讨论的主题。这场辩论是在1980年《特定常规武器公约》框架内发起的,自2017年以来由一组政府专家(GGE)领导。政府专家小组的任务是通过关于澄清、审议和发展法律和信息领域新兴技术规范和业务框架各方面的协商一致建议。这方面的核心问题是,国际人道主义法的现有规则是否提供了足够明确的监管框架,或者是否需要新的规则、标准或最佳做法来应对AWS的独特特点和挑战

尽管各国在这一问题上仍有不同的看法,但政府专家小组已就一些实质性问题达成共识。特别是,它重申国际人道主义法适用于AWS,并同意由人类而不是机器负责AWS的开发和使用。该小组进一步确定,需要一定质量和程度的人机交互(HMI),以确保AWS的开发和使用符合国际法,特别是国际人道主义法。GGE对人机界面的关注反映了一种共识,即武器系统的自主性不可能是无限的,需要人类的参与

国际人道主义法要求什么程度的人类参与——或者用GGE的说法,什么类型和程度的人机界面——现在是辩论的中心问题,如果不是最核心的问题。GGE同意,HMI不可能一刀切,因为所需的类型和程度可能因武器和使用环境而异。但仍然存在的困难和令人烦恼的问题是:一个国家如何以及在什么基础上确定在特定情况下需要什么质量和程度的人机界面

对于许多国家来说,关于人类和机器如何合法互动的问题的答案可以在对国际人道主义法的更系统探索中找到。为了支持各州开展此类活动,SIPRI于2021进行了一项绘图研究,“自主武器系统和国际人道主义法”,其中确定了需要解决的关键问题,以澄清需要何种类型和程度的人机界面来确保遵守国际人道主义法律。以下部分概述了该练习的一些关键发现

国际人道主义法关于人类在使用武力中的作用所说的和没有说的内容

国际人道法的主要目的是限制武装冲突的影响,制定规则、限制和禁令,以保护平民不受使用武力的影响,同时避免战斗人员受到过度伤害和不必要的痛苦。这些规则适用于所有武器,包括AWS

然而,虽然《国际人道主义法》明确了哪些影响是非法的,但对如何产生合法影响却不太清楚。这种缺乏明确性的现象是由自主性引起的。AWS提出了一个问题,即国际人道主义法义务,特别是区分原则、相称原则和攻击预防原则所要求的义务,是否可以通过机器程序执行,以及在多大程度上可以执行。SIPRI的研究发现,现有的国际人道主义法规则并没有为这个问题提供明确的答案。它还发现,因此,各国在解释规则时得出不同的结论。一些人认为,只要效果是合法的,将任务委托给机器(在法律上)就没有问题。同时,其他人认为,为了遵守国际人道主义法,整个使用武力的过程都隐含地要求并需要反映人的能动性

因此,在特定情况下,各国可能会对遵守国际人道主义法所需人机界面的类型和程度得出截然不同的结论。因此,可能需要进一步澄清国际人道主义法

谁、什么、何时何地

为了澄清这些问题,政府专家小组可以有效地探讨自治如何影响国际人道主义法义务的履行,至少涉及四个方面。第一个维度涉及(以及有多少人)可能负责遵守国际人道主义法。第二个维度与国际人道主义法规则要求、允许或禁止的人机界面类型和程度有关。第三和第四维度涉及何时哪些位置需要遵守国际人道主义法规定有关

在AWS的开发和使用中,解决应该做什么何时以及哪里,对于明确在特定情况下,何种类型和程度的HMI符合IHL要求至关重要。虽然每个维度本身都值得注意,但只有当这些维度结合起来考虑时,才能确定限制。例如,作战环境的特点如何影响提前进行相称性评估的程度,以及谁需要参与国际人道主义法评估?有效探索这些维度及其相互依赖性的一种方法是通过情景练习。通过使用不同的场景,向上和向下拨通不同的维度,各国将能够更好地确定哪些任务可以委托给机器,哪些任务应该留给人类

阐明人类在使用武力中的作用

经过多年围绕AWS治理的讨论,GGE正处于十字路口。该小组即将于12月召开《特定常规武器公约》第六次审议大会,会议被认为是国际社会应对武器系统自主性增强带来的挑战的关键时刻。对于确定是否需要新的规定以及以何种形式进行规定,进一步澄清人类遵守国际人道主义法的要求和机器的许可是至关重要的。如最近几次会议所示,如果GGE试图禁止某些类型的AWS并限制其他使用,则尤其需要这样做。围绕四维框架进行结构化和深入的讨论将有助于各国确定国际人道主义法景观的红线和绿区;什么类型应该被禁止,什么类型应该受到管制

努力澄清国际人道主义法关于人类在使用武力中的作用的说法,也与AWS的情况无关。其他领域的技术发展,包括人工智能的进步在内,这些都对人类的能动性和决策提出了类似的问题。因此,现在是国际社会考虑的时候了,不仅是法律已经说明或没有说明人类在使用武力中的作用,而且是无论使用何种技术,法律都应该说明什么

另见Frank Sauer,《武器系统的自主性:与技术并驾齐驱》,2021 9月29日,Neil C.Renic,《自主武器系统:何时是监管的正确时机?,2019年9月26日
  • 红十字国际委员会,尼尔·戴维森,自主武器系统:人类控制的伦理基础?2018年4月3日
  • 目前的中文版本由自动翻译产生