分析
对涉及人工智能的武器、作战手段和方法的法律审查:需要考虑的16个要素
作者: Dustin A. Lewis
原文发布于 2019-03-21 icrc blog 原文链接 打印 English
关于武器、战争手段或方法的法律审查,涉及人工智能(AI)相关技术或工具的当代辩论中,主要关注的问题是什么?2018年12月在武装冲突国际法前沿举办的人工智能研讨会的一次会议集中讨论了这一主题。在这篇文章中,我概述了一些关键的门槛考虑因素,并简要列举了各国可能会考虑的16个要素,作为涉及人工智能相关技术或工具的法律审查的一部分,测试和监测制度,作为确定和施加限制的过程的一部分,并作为使用武器、作战手段或方法的必要禁令。在涉及或可能涉及人工智能相关技术或工具的情况下,法律审查制度的设计和实施可能会带来特定种类和程度的挑战和机遇。例如,就挑战而言,在即将发布的一篇博文中,Netta Goussac将强调在审查涉及人工智能的武器时可能出现的一些法律和其他问题,尤其是在可预测性和可靠性方面引入不确定性和相应问题的可能性。此外,今天,从我的角度来看,各国在这一领域似乎缺乏足够的信任,至少在某些拥有先进技术能力的国家之间。在这种背景下,强有力的法律审查不仅有助于法律合规,还可能有助于促进规范稳定性和增强各国之间的信任。我所说的人工智能相关技术和工具是什么意思

但首先,谈谈我所说的人工智能相关技术或工具。我的出发点是,人工智能没有一个公认的定义。也就是说,关注从广泛构想的人工智能科学中衍生出来的或与之相关的技术或工具可能是有价值的。我从芭芭拉·J·格罗斯(Barbara J.Grosz)等学者的工作中得出的理解是,人工智能科学在一定程度上与基于计算的智能行为理解的发展有关,通常通过两个相互关联的步骤。其中一个步骤涉及确定认知结构和过程,并相应设计有效表达和推理的方法。另一步涉及体现这种理解的理论、模型、数据、方程、算法和/或系统的开发。

因此,人工智能系统通常被认为是结合了技术,并导致了工具的开发,使系统或多或少“智能”地“推理”,或多或多“自主”地“行动”。例如,系统可以通过解释自然语言和视觉场景来做到这一点学习”(或更常见的培训);举一反三;做出“决定”并对这些“决定”采取行动。这些技术和工具可能植根于以下一种或多种方法:植根于逻辑推理的方法,有时也称为“符号人工智能”(作为一种基于模型的方法);根植于概率(也是基于模型的方法的一种形式);和/或基于统计推理和数据(作为数据依赖或数据驱动方法的一种形式)的准则,获得或采用一种新的武器、作战手段或方法,缔约国有义务确定在某些或所有情况下,其使用是否会被本议定书或适用于缔约国的任何其他国际法规则所禁止。

这些审查的法律性质是什么?至少根据这些条款起草委员会的报告员(见O.R.XV,第269页,CDDH/215/Rev.1,第30段),一国对这些条约条款的合法性或缺乏合法性的认定并不具有国际约束力。如果我们假定这一立场是准确的,那么这些条约规定中的习惯法对应方(如果有的话)似乎也会有同样的论点。相反,这些法律审查条款,无论是条约性质还是习惯性质,都可能被视为一种期望,即作出这种决定的义务将得到履行,以确保在没有对其合法性进行仔细审查的情况下,武器、作战手段或作战方法不会被开发或采用,回避问题:是什么适用的主要规范?尽管在几个主要规范上达成了广泛共识,但在武器、作战手段或方法方面可能开发和使用与人工智能相关的技术或工具,可能会在一些主要规范的来源和/或内容方面遇到一些分歧。其中一些分歧可以追溯到几十年前(如果不是更长的话)。其他则相对较新。对什么是合法和非法行为的这种不同做法妨碍了规范的统一性和法律的普遍性,从而妨碍了建立一套全面的商定的主要法律规范,必须根据这些规范审查所有武器、作战手段或方法。考虑三个例子:滥杀滥伤攻击首先,尽管在我看来,各国之间没有合理的分歧,即一般来说,《国际人道主义法》/《武装冲突法》禁止滥杀滥伤攻击,但这一基本原则的一些关键方面目前仍有争议。以直接参与敌对行动为例。一般而言,根据《国际人道主义法》/《武装冲突法》,平民应享有免受敌对行动影响的保护。对于直接参与敌对行动的平民,这些保护的某些方面,包括所谓的直接攻击豁免,可能会被撤销。人们似乎广泛支持《行动计划一》第51(3)条所依据的习惯原则。(至少在条约法方面,该条款涉及平民直接参与该文书所定义的国际武装冲突中的敌对行动。)然而,根据《战争法手册》(2016年12月),美国国防部总法律顾问办公室指出,至少在其看来,该条约条款的起草,第二,关于适用的法律框架,在我看来,各国之间没有合理的分歧,即在武器的法律审查中必须至少考虑到国际人道主义法/武装冲突法的相关规定。与此同时,一些国家正在考虑是否也必须考虑国际人权法的规定,如果是,如何以及在多大程度上予以考虑。例如,联合王国显然正在积极考虑这个问题。这种关于适用框架的评估在很大程度上是重要的,因为相关国际人道主义法/法律援助法规定的内容至少在传统上被认为是更能容忍的,在某些情况下,虽然从未无限死亡,与《国际人道主义法》规定相比,破坏和其他危害。

关于人工智能相关技术或工具的主要规范

第三,目前某些国家之间似乎存在关键分歧,即是否可以、应该和/或必须制定一项新的或正在出现的有关人工智能相关技术或工具以及其他相关技术的主要规范。(根据某些学者和倡导者的说法,这样的规范可能已经被辨别出来了。)

这是目前关于“致命自主武器系统领域的新兴技术”(使用相关政府专家组标题中的术语)的许多规范性辩论的地方。一方面,对于一些国家来说,这样一项主要规范可能是从概念上制定的,例如,从2018年8月奥地利、巴西和智利提出的为一项新的具有约束力的国际文书确立授权的提案中提取的。该提案提到“确保人类对致命自主武器系统的关键功能有意义的控制”。另一方面,其他一些国家认为,现有的国际人道主义法/武装冲突法已经足够。根据这一观点,不需要在致命自主武器系统领域的新兴技术方面对国际人道主义法/武装冲突法进行“现代化”或“适应”,在上文确定的某些主要规范的某些具体方面,各国仍然必须采取强有力的法律审查制度。考虑到这一点,列举可能对负责对涉及人工智能相关技术或工具的武器、作战手段或作战方法进行法律审查的人员来说非常重要的感兴趣或关注的元素或属性可能很有价值。这里的列表顺序并不意味着层次结构。某些元素或属性可能在实质上和/或程序上重叠。其他人可能会自力更生。列入清单并不意味着表明国际法有或没有已经迫使一国将该特定要素或财产作为法律审查的一部分加以考虑。这份清单也不是要详尽列举所有可能相关的考虑因素。鉴于这些警告,这里有16项非详尽的评估,涉及可能被视为法律审查的一部分的利益或关注的要素或属性:,涉及人工智能相关技术或工具的作战手段或方法

  • 可归因性:关于至少保留国家和个人的可归因性的评估,如相关,包括使用人工智能相关技术或工具的武器、作战手段或作战方法的指挥官
  • 可解释性:关于保留使用涉及人工智能相关技术或工具的武器、作战手段或方法的可解释性的评估
  • 可重构性:关于可重构性保存的评估,概括而言,是指将所采用的计算组件的输入、功能、依赖性和输出充分拼凑在一起的能力,以及在每个相关使用环境中,包括在雇佣期间和雇佣后使用涉及人工智能相关技术或工具的武器、作战手段或方法的所有潜在法律后果(此处可能的指导方针是,此类雇佣能够接受司法审查,包括司法机关的审查)
  • 代理:评估在使用涉及人工智能相关技术或工具的武器、作战手段或方法时采用的计算组件是否可以全部或部分作为任何法律相关特征的代理
  • 人的意图和人的知识:关于维护人的意图与人的知识的评估,因为这些意图与遵守适用于武装冲突的国际法有关,涉及人工智能相关技术或工具的作战手段或方法
  • 规范倒置:关于规范倒置排除的评估,即防止计算组件以某种方式运行,例如,假设每个人表面上都可能受到直接攻击,从而在功能上拒绝并因此倒置,关于使用涉及人工智能相关技术或工具的武器、作战手段或方法的(受保护)平民地位的一般推定
  • 价值决定和规范性判断:关于仅在使用涉及人工智能相关技术或工具的武器、作战手段或方法时,对人类保留国际人道主义法/武装冲突法相关价值决定和规范性判断的评估
  • 持续监控:评估在使用涉及人工智能相关技术或工具的武器、作战手段和方法时所采用的计算组件运行的持续监控的可行性
  • 停用和/或附加审查:关于在使用涉及人工智能相关技术或工具的武器、作战手段或作战方法方面建立停用阈值和/或额外审查阈值的可行性的评估
  • 关键安全特征:关于在关键安全特征降级的情况下防止继续使用涉及人工智能相关技术或工具的武器、作战手段或方法的评估
  • 即兴表演:对使用与人工智能相关的技术或工具的武器、作战手段或方法时可能出现的“即兴表演”形式进行充分限制和必要禁止的评估
  • 表示:关于计算组件中反映的表示的评估,简而言之,模型的配置及其在使用涉及人工智能相关技术或工具的武器、作战手段或方法时所采用的特征
  • 偏差:关于在尊重使用涉及人工智能相关技术或工具的武器、作战手段或方法
  • 依赖性:评估计算组件内部和之间的依赖性,以及在使用涉及人工智能相关技术或工具的武器、作战手段或方法时采用的依赖性之间的关系;和
  • 预测性维修:关于建立预测性维修的可行性的评估,即旨在预测、预警和预防故障、退化或损坏的措施,以避免在使用武器时需要进行纠正性维修,涉及人工智能相关技术或工具的作战手段或方法
  • ***

    这篇文章是AI博客系列的一部分,源自2018年12月在哈佛法学院举办的关于国际法前沿与武装冲突的人工智能研讨会,该研讨会由哈佛法学院国际法与武装冲突项目联合主办,红十字会美国和加拿大地区代表团国际委员会和美国海军战争学院斯托克顿国际法中心

    系列中的其他博文包括

    • 系列简介和关于人工智能和冲突前沿的专家观点
    • Ashley Deeks,通过算法拘留
    • Lorna McGregor,需要在军事环境中建立关于预测算法的明确治理框架
    • Tess Bridgeman,武装冲突拘留中依赖数据的预测系统的可行性
    • Suresh Venkatasubramanian,算法决策与法律之间的结构性脱节
    • 李强和谢丹,AI武器在国际人道主义法下的法律监管:中国视角,安全网或纠结的网络:武器和战争中人工智能的法律审查

    另请参见

    • ICRC,《武装冲突中的人工智能和机器学习:以人为中心的方法》,2019年6月6日;政策博客不得被解释为以任何方式定位红十字国际委员会,博客的内容也不等于正式的政策或理论,除非特别指出


      >
    目前的中文版本由自动翻译产生