这是一个简单的问题,机器人应该自己杀人吗?
技术就在这里。无人系统,无论是地面还是空中机器人,都可以在无人干预的情况下自主寻找、发现、追踪、瞄准和摧毁敌人。
这个问题正在引发全球辩论,并引发关于武装冲突道德边界的讨论。美国以及盟友和对手都在积极应对这一问题,这是可以理解的。
前方定位的武装机器人可以使用内置传感器检测敌方战斗人员,以提示攻击武器。空中无人机可以像现在一样,用地狱火导弹攻击目标,然而,却跳过了当前需要人工操作员批准的步骤。
五角大楼领导人坚持认为,军事力量的致命使用必须符合法律和道德规范或在法律和道德标准范围内进行。联合人工智能中心(Joint Artificial Intelligence Center)主任杰克·沙纳汉(Jack Shanahan)中将表示:“我们不会在不遵守武装冲突和国际人道主义法的标准的情况下使用这些机器人。你不会希望机器人在战场上无差别地做出生死决定。这不会发生。你必须制定交战规则。”,在一个特别的视频系列中告诉米切尔航空航天研究所。然而,有人可能会说,还有一些模棱两可的地方。人工智能武器的“防御性”用途如何?当然,导弹拦截机、防御激光和反无人机干扰机可以在不需要人类批准的情况下运行。
如果一台机器能够识别接近的无人机攻击,计算出最佳的应对方法,并独立发射拦截武器和爆炸物,该怎么办?这样的技术不仅可以在部队受到敌人火力攻击时节省时间,还可以挽救生命。
在某些时候,机器控制的防御系统是否应该具备在受到攻击时摧毁有人战斗机的技术能力?只是为了防御?这会违反现有的原则吗?大概美国目前的理论规定,任何“致命”武力的使用都需要由人类决定。然而,沙纳汉指出,许多武器已经使用了不同程度的自主性。
沙纳汉说:“我们今天在武器中使用了自主系统,配备了人工智能生成的精确制导弹药和无人武装飞机。”。许多武器已经利用自主和半自主制导系统,使其能够在飞行中改变航向,以调整和打击移动目标。例如,海军的SM-6使用双模导引头来解释返回的电磁信号并调整航向。此外,海上战斧使用了新水平的先进无线电吞吐量来改变飞行轨迹,即使是现有的第四座战斧也具有双向数据链路和“游荡”技术,以在出现新目标时转移攻击。当然,虽然目标可以由人类预先编程,但自主武器技术对新兴或新目标提出了疑问。
这意味着,当将其置于战术环境中时,在摧毁无人驾驶敌方车辆的过程中,武器可能会改变飞行轨迹,以获取新的“人类”目标,从而使用致命武力。这难道不是自主使用致命武力吗?该武器将使用自己的内部技术系统自动将目标从非人类目标切换到人类目标?操作员是否指示武器改变航向?在许多情况下,武器现在可以自己做到这一点。
“我们将在这些讨论中领导世界。我们不希望中国接手这场讨论并说正确的话,而是做一些完全不同的事情,”沙纳汉说。
Kris Osborn是《国家利益》的国防编辑。奥斯本曾在五角大楼担任陆军采购、后勤和后勤部助理部长办公室的高级专家;技术奥斯本还曾在国家电视网担任主播和空中军事专家。他曾在福克斯新闻、MSNBC、军事频道和历史频道担任客座军事专家。他还拥有哥伦比亚大学比较文学硕士学位