阅读我们的Oppenheimer收藏
作者:Michael C.Horowitz|July 29,2016年
关于人工智能与军事关系的最大担忧之一是,机器学习——一种允许计算机在没有明确编程的情况下从新数据中学习的人工智能——可能会在军事系统中迅速传播,甚至有军备竞赛的风险。2016年7月,达拉斯警察局对配备武器的机器人后果的担忧甚至延伸到了最近使用的遥控炸弹处理机器人,而不是自动炸弹处理机器人。这一事件引发了一波关于携带武器的机器人后果的文章,尤其是在军队之外使用时
关于机器人技术军事应用的讨论往往集中在美国,这主要是因为美国广泛使用无人驾驶(也称为无人驾驶)飞行器或“无人机”对世界各地的疑似武装分子进行监视和发动致命打击。然而,将军事机器人的讨论局限于美国等富裕民主国家开发的机器人,可能会错过重要的潜在趋势
商业市场已经率先将人工智能以“深度学习”和更广泛的机器学习类别的形式融入美国和全球经济。(在深度学习中,使用了一组算法,试图通过使用由多个线性和非线性变换组成的模型来对数据的高级抽象进行建模,“你已经在不知不觉中每天都在使用它了:它有助于为谷歌的搜索引擎、脸书的自动照片标记、苹果的语音助手、亚马逊的购物推荐和特斯拉的自动驾驶汽车提供动力。”最近,梅西百货正在试验使用人工智能(也称为AI)来帮助顾客购买衣服
一些观察人士表示,如果这种趋势继续下去,可能会对工业革命产生重大的大规模影响。抛开这些社会、人类和工业问题不谈,我们可能很快就会面临一个未来,即人工智能越来越多地融入经济的各个领域,使用广泛可用的底层软件。出口管制不太可能阻止这些新工具的传播,因为历史表明,政府的监管通常落后于而不是引领新技术的发明。更重要的是,美国以外的人工智能领域也出现了重大创新
至少一些纯粹用于商业目的的机器学习能力将不可避免地产生军事溢出效应——扭转冷战时期的动态,当时军事发明帮助推动了美国民用经济。(例如,智能手机上的GPS系统起源于美国海军的一个项目,该项目旨在精确定位其核潜艇的位置。)这种区别很重要,因为人工智能本身并不是一种武器。它更像是卫星接入或内燃机——这可能是许多不同功能的基础,包括军事功能。例如,这与隐形技术形成了鲜明对比,隐形技术仅以屏蔽车辆或导弹免受雷达干扰的形式具有军事目的
随着机器学习和其他形式的人工智能在世界各地越来越普及,这种技术民主化可能会加速人工智能军事相关方面的传播,无论是对国家还是非国家行为者。正如我的研究所表明的,为了有效地使用技术,技术的传播和组织系统的传播之间存在很大的差距。然而,话虽如此,除了美国、英国和其他民主国家之外,还有重要的影响——包括ISIS等激进组织,以及俄罗斯和中国等非民主国家
许多科学家担心,如果主要军事大国大规模生产自主武器,可能会导致武器进入黑市,落入激进组织和军阀手中。问题是,无论主要军事大国做什么,制造简单版本的这些武器所需的基本装备都可能提供给激进组织和欠发达国家。
ISIS等暴力非国家行为者以及不太富裕的国家可能获得制造简单自主武器的能力,特别是随着商业应用在世界各地传播相关软件和编程。这些然而,这些功能可能是相当基本的,并且可以说在今天已经可以使用了。例如,今天的激进组织或民族国家可以携带一辆履带式车辆,在其上安装一挺机枪,将该机枪连接到热传感器,并在热传感器记录到人类的热信号时对机枪进行编程以开火。这将是一种相对不分青红皂白的武器,通常会违反关于可接受的战时做法的国际法,而且在实现其破坏性目标方面可能不如其他武力使用有效
此外,如果机器学习可以用来帮助诸如将武器连接到跟踪设备和目标识别等工作,那么由此产生的任务自动化将缓解“系统集成”的挑战,或者将组件子系统整合到一个单一的、可运行的系统中。因此,有可能修改商业人工智能来帮助军事行动规划,使许多非国家行为者和民族国家更容易进行更复杂的行动
传统观点认为,机器人的军事应用,包括遥控和自主(无人驾驶),通常是美国等国家的问题。人们的想法是,富裕的民主国家特别倾向于投资机器人来获得军事优势,并降低士兵的生命风险,因为机器人的使用最大限度地利用了他们在资本而非劳动力方面的优势。这当然是有道理的。美国和以色列等民主国家在军事机器人投资方面处于世界领先地位
然而,忽视某些类型的独裁政权可能倾向于投资军事机器人是错误的,尤其是在利用机器人与人工智能的潜力不断增长的情况下。专制主义的存在是基于他们将大部分人口排除在治理之外,他们天生不信任自己的许多人。这意味着,专制军队通常专注于最大限度地控制自己的军队
独裁领导人经常害怕自己的人民和军队,这是有充分理由的。政变企图在专制政权中更有可能发生,7月中旬在土耳其发生的事件除外。这些压力在更具包容性或内部威胁程度较低的独裁政权中可能有所不同,但独裁者不信任他们的军队是很自然的,尤其是因为许多独裁者自己是在军事支持的政变中上台的。
考虑到这些压力,许多独裁者可能对军事机器人系统特别感兴趣,因为它们可以从更集中的指挥站操作。我与斯坦福大学研究员Matthew Fuhrmann一起进行的一项学术研究——即将发表在国际组织上——表明专制国家和民主国家一样有可能追求武装无人机。从集中的地方使用武力,而不是一系列分散的地方,这意味着独裁者可以更容易地监视有能力使用致命武力的部队。这可能会产生几个后果。例如,对独裁者权力的一个关键限制——当独裁者躲在远处的宫殿里时,需要有大量士兵愿意在紧张的面对面局势中镇压自己的人民——将会减少。如果做出选择的人是少数忠于政权的人,他们被隔离在一个可以通过按下按钮使用武力的指挥中心,埃及军方会拒绝穆巴雷克在2001年阿拉伯之春期间向解放广场抗议者开火的命令吗?中央集权将使最忠诚的政权效忠者更容易进行军事控制
此外,将人工智能应用于中央军事系统可以减少独裁者使用武力所需的部队数量,甚至超过遥控无人机提供的中央集权的可能性。考虑到独裁者专注于减少他们对内部政治威胁的脆弱性,以及他们将人民视为弱点的观点,自动化解决方案可能显得特别有用。美国国防部副部长Robert Work,2015年12月,他提出了类似的论点,当时他表示:“[a]那些认为人是机器中的弱点,他们是齿轮中的薄弱环节,他们不可信任的权威政权,自然会倾向于完全自动化的解决方案。我为什么知道这一点?因为这正是苏联对其侦察打击综合体的设想。它将完全自动化。”
因此,像美国这样拥有世界上最好士兵的民主国家正专注于一种新的、不同的方法,这并不奇怪在机器学习的应用中:人机协作。通过所谓的第三次抵消战略,美国军方寻求利用新兴技术来提高美军在战场上获胜的能力,并从一开始就阻止冲突的发生。从哲学上讲,当一个国家相信并信任其士兵时,人机合作是有意义的
抛开理论不谈,俄罗斯和中国等更专制的国家也有一个非常务实的理由大力投资于机器学习的武器化——他们对追求任何可能帮助他们挑战美国常规军事霸权的新兴能力的固有兴趣。这自然使他们更有可能探索人工智能提供的途径。例如,俄罗斯在2014年宣布,它正在开发机器人哨兵,以保护其洲际弹道导弹基地,这些基地可能具有能够在无人参与的情况下使用武力的自动模式。Work在同一次演讲中表示,中国也在“大力投资机器人和自主性”
这一切意味着什么?最重要的是,当考虑人工智能等新兴技术可能影响战争的方式时,仅仅关注美国是错误的。在较低级别,激进组织和能力较弱的国家可能已经具备了生产一些简单的自主武器系统所需的能力,而纯粹出于商业原因,这种能力可能会进一步扩散。此外,一些专制国家可能有内在的动机,无论他们更关心内部还是外部威胁,将机器学习应用于他们的新武器系统。最后,所有这些相关人员——无论是ISIS、美国、中国还是其他国家——都有一个共同点:只有当他们相信这些能力会给他们带来相对优势时,他们才有可能开发和部署这些武器。因此,预测这些能力如何以及是否可能传播的关键任务在于了解它们在现代战争中可能有用,在哪里不有用
公告将专家的声音提升到噪音之上。但作为一个独立的非营利媒体组织,我们的运营依赖于像你这样的读者的支持。帮助我们继续提供高质量的新闻报道,让领导者负起责任。你在任何层面上对我们工作的支持都是重要的。作为回报,我们承诺我们的报道将是可理解的、有影响力的、警惕的、以解决方案为导向的和公正的。我们一起可以有所作为
主题:专栏作家、技术和安全
Michael C。Horowitz是宾夕法尼亚大学的Richard Perry教授兼Perry World House主任。。。阅读更多
版权所有©2023原子科学家公报。保留所有权利。使用条款隐私政策
1307 East 60th Street,Chicago,IL 60637|773.702.6308