分析
负责任和道德的军事人工智能
作者: Zoe Stanley-Lockman
原文发布于 2021-08-01 cset 原文链接 下载原文PDF 打印 English

简介

美国的盟友已经开始制定自己的政策方法来负责任地使用军事人工智能。本期简报着眼于关键盟友,他们对如何在采用军事人工智能时管理道德风险提出了清晰、新兴和新生的观点。该报告比较了它们的趋同和分歧,为美国、其盟国和多边机构制定负责任的人工智能实施的共同方法提供了途径。

自美国国防部于2020年2月通过其人工智能五项安全和道德原则以来,重点已转移到将其付诸实施。值得注意的是,联合人工智能中心(JAIC)领导的实施工作围绕“负责任的人工智能”(RAI)作为国防部的框架,包括与盟国和合作伙伴的合作努力1

随着国防部RAI战略和实施路径的制定,在军事领域领导全球RAI的第一步是了解其他国家如何处理此类问题。本报告探讨了美国的主要盟友如何看待人工智能的国防道德。人工智能中的国防合作建立在更广泛的美国战略共识的基础上,即盟友和合作伙伴相对于中国和俄罗斯具有相对优势,而中国和俄罗斯往往单独行动,确保人工智能的领导地位对于维持美国的战略地位和技术优势至关重要。因此,与其他民主国家结成伙伴关系对成功实现这些战略目标具有重要意义。然而,负责任的人工智能的军事方面超出了关于自主武器系统的辩论,目前正在讨论之中

盟国之间负责任和合乎道德的军事人工智能非常重要,因为政策协调可以提高理论、程序、法律框架和技术实施措施的互操作性。不仅就采用技术的军队以人为中心达成一致,而且就问责制和道德原则进入人工智能设计、开发、部署和传播的方式达成一致,有助于加强战略民主优势。相反,盟军之间的道德差距可能会产生危险的后果,危及政治凝聚力和联盟的成功。更具体地说,如果盟国在军事人工智能的责任和风险分析方面不达成一致,那幺在政治意愿方面可能会出现差距,在联合行动中分担风险,并授权彼此协同行动。尽管美国是唯一一个采用防务伦理原则的国家,但关键盟友正在制定自己的框架,以应对人工智能生命周期中的伦理风险。本报告探讨了这些不同的文件,这些文件到目前为止还没有得到充分的研究,至少是前后一致的。总体而言,该分析强调了在军事人工智能的伦理方法上的趋同,以及可能演变为政治或运营责任的不断扩大的差异

关键要点如下:

  • 国防部仍然是开发用于防御的道德人工智能方法的领导者。这一先行者地位使JAIC能够很好地领导负责任的军事人工智能的国际合作
  • 多边机构也会影响各国如何看待和实施防务中的人工智能道德。北约和JAIC的人工智能防务伙伴关系(PfD)是追求负责任的军事人工智能议程的重要场所,而欧盟和五只眼则具有相关但相对较不明确的角色
  • 盟友对军事人工智能道德观的一致性领域包括:需要遵守现有的道德和法律框架,保持以人为本,在设计阶段识别道德风险,并在人工智能生命周期中实施技术措施以减轻风险
  • 存在较少分歧的领域,主要涉及盟国将AI责任和信任的特定民用组件引入其防御框架的方式。应跟踪这些情况,以确保它们不会危及未来的政治凝聚力和联盟的成功
  • 利用共享观点并最大限度地减少分歧导致问题的可能性的途径包括使用多边格式来协调道德、安全、安保和规范方面的观点

在分析盟国对负责任的军事人工智能的方法时,本期简报确定了国防部可以通过帮助盟国各部制定其观点来鼓励一致性的机会,同时作为其自身RAI实施工作的一部分,从其他负责任的人工智能方法中学习

下载完整报告
src=负责任和道德的军事人工智能
  1. 国防部副部长办公室在国防部实施负责任的人工智能国防部(华盛顿特区:2021 5月26日),https://media.defense.gov/2021/May/27/2002730593/-1/-1/0/IMPLEMENTING-RESPONSIBLE-ARTIFICIAL-INTELLIGENCE-IN-THE-DEPARTMENT-OF-DEFENSE.PDF
目前的中文版本由自动翻译产生