但首先,谈谈我所说的人工智能相关技术或工具。我的出发点是,人工智能没有一个公认的定义。也就是说,关注从广泛构想的人工智能科学中衍生出来的或与之相关的技术或工具可能是有价值的。我从芭芭拉·J·格罗斯(Barbara J.Grosz)等学者的工作中得出的理解是,人工智能科学在一定程度上与基于计算的智能行为理解的发展有关,通常通过两个相互关联的步骤。其中一个步骤涉及确定认知结构和过程,并相应设计有效表达和推理的方法。另一步涉及体现这种理解的理论、模型、数据、方程、算法和/或系统的开发。
因此,人工智能系统通常被认为是结合了技术,并导致了工具的开发,使系统或多或少“智能”地“推理”,或多或多“自主”地“行动”。例如,系统可以通过解释自然语言和视觉场景来做到这一点学习”(或更常见的培训);举一反三;做出“决定”并对这些“决定”采取行动。这些技术和工具可能植根于以下一种或多种方法:植根于逻辑推理的方法,有时也称为“符号人工智能”(作为一种基于模型的方法);根植于概率(也是基于模型的方法的一种形式);和/或基于统计推理和数据(作为数据依赖或数据驱动方法的一种形式)的准则,获得或采用一种新的武器、作战手段或方法,缔约国有义务确定在某些或所有情况下,其使用是否会被本议定书或适用于缔约国的任何其他国际法规则所禁止。
这些审查的法律性质是什么?至少根据这些条款起草委员会的报告员(见O.R.XV,第269页,CDDH/215/Rev.1,第30段),一国对这些条约条款的合法性或缺乏合法性的认定并不具有国际约束力。如果我们假定这一立场是准确的,那么这些条约规定中的习惯法对应方(如果有的话)似乎也会有同样的论点。相反,这些法律审查条款,无论是条约性质还是习惯性质,都可能被视为一种期望,即作出这种决定的义务将得到履行,以确保在没有对其合法性进行仔细审查的情况下,武器、作战手段或作战方法不会被开发或采用,回避问题:是什么适用的主要规范?尽管在几个主要规范上达成了广泛共识,但在武器、作战手段或方法方面可能开发和使用与人工智能相关的技术或工具,可能会在一些主要规范的来源和/或内容方面遇到一些分歧。其中一些分歧可以追溯到几十年前(如果不是更长的话)。其他则相对较新。对什么是合法和非法行为的这种不同做法妨碍了规范的统一性和法律的普遍性,从而妨碍了建立一套全面的商定的主要法律规范,必须根据这些规范审查所有武器、作战手段或方法。考虑三个例子:滥杀滥伤攻击首先,尽管在我看来,各国之间没有合理的分歧,即一般来说,《国际人道主义法》/《武装冲突法》禁止滥杀滥伤攻击,但这一基本原则的一些关键方面目前仍有争议。以直接参与敌对行动为例。一般而言,根据《国际人道主义法》/《武装冲突法》,平民应享有免受敌对行动影响的保护。对于直接参与敌对行动的平民,这些保护的某些方面,包括所谓的直接攻击豁免,可能会被撤销。人们似乎广泛支持《行动计划一》第51(3)条所依据的习惯原则。(至少在条约法方面,该条款涉及平民直接参与该文书所定义的国际武装冲突中的敌对行动。)然而,根据《战争法手册》(2016年12月),美国国防部总法律顾问办公室指出,至少在其看来,该条约条款的起草,第二,关于适用的法律框架,在我看来,各国之间没有合理的分歧,即在武器的法律审查中必须至少考虑到国际人道主义法/武装冲突法的相关规定。与此同时,一些国家正在考虑是否也必须考虑国际人权法的规定,如果是,如何以及在多大程度上予以考虑。例如,联合王国显然正在积极考虑这个问题。这种关于适用框架的评估在很大程度上是重要的,因为相关国际人道主义法/法律援助法规定的内容至少在传统上被认为是更能容忍的,在某些情况下,虽然从未无限死亡,与《国际人道主义法》规定相比,破坏和其他危害。
关于人工智能相关技术或工具的主要规范
第三,目前某些国家之间似乎存在关键分歧,即是否可以、应该和/或必须制定一项新的或正在出现的有关人工智能相关技术或工具以及其他相关技术的主要规范。(根据某些学者和倡导者的说法,这样的规范可能已经被辨别出来了。)
这是目前关于“致命自主武器系统领域的新兴技术”(使用相关政府专家组标题中的术语)的许多规范性辩论的地方。一方面,对于一些国家来说,这样一项主要规范可能是从概念上制定的,例如,从2018年8月奥地利、巴西和智利提出的为一项新的具有约束力的国际文书确立授权的提案中提取的。该提案提到“确保人类对致命自主武器系统的关键功能有意义的控制”。另一方面,其他一些国家认为,现有的国际人道主义法/武装冲突法已经足够。根据这一观点,不需要在致命自主武器系统领域的新兴技术方面对国际人道主义法/武装冲突法进行“现代化”或“适应”,在上文确定的某些主要规范的某些具体方面,各国仍然必须采取强有力的法律审查制度。考虑到这一点,列举可能对负责对涉及人工智能相关技术或工具的武器、作战手段或作战方法进行法律审查的人员来说非常重要的感兴趣或关注的元素或属性可能很有价值。这里的列表顺序并不意味着层次结构。某些元素或属性可能在实质上和/或程序上重叠。其他人可能会自力更生。列入清单并不意味着表明国际法有或没有已经迫使一国将该特定要素或财产作为法律审查的一部分加以考虑。这份清单也不是要详尽列举所有可能相关的考虑因素。鉴于这些警告,这里有16项非详尽的评估,涉及可能被视为法律审查的一部分的利益或关注的要素或属性:,涉及人工智能相关技术或工具的作战手段或方法
***
这篇文章是AI博客系列的一部分,源自2018年12月在哈佛法学院举办的关于国际法前沿与武装冲突的人工智能研讨会,该研讨会由哈佛法学院国际法与武装冲突项目联合主办,红十字会美国和加拿大地区代表团国际委员会和美国海军战争学院斯托克顿国际法中心
系列中的其他博文包括
- 系列简介和关于人工智能和冲突前沿的专家观点
- Ashley Deeks,通过算法拘留 Lorna McGregor,需要在军事环境中建立关于预测算法的明确治理框架
- Tess Bridgeman,武装冲突拘留中依赖数据的预测系统的可行性
- Suresh Venkatasubramanian,算法决策与法律之间的结构性脱节
- 李强和谢丹,AI武器在国际人道主义法下的法律监管:中国视角,安全网或纠结的网络:武器和战争中人工智能的法律审查
另请参见
- ICRC,《武装冲突中的人工智能和机器学习:以人为中心的方法》,2019年6月6日;政策博客不得被解释为以任何方式定位红十字国际委员会,博客的内容也不等于正式的政策或理论,除非特别指出
>