原创文章
人工智能与战争:一种理性选择的方法
作者: Atin Basuchoudhary
原文发布于 2024-06-19 springer 原文链接 下载原文PDF 打印 English

简介

近年来,人工智能一直是一个热门话题,尤其是与战争和军事行动有关的人工智能。虽然理性选择方法已被广泛用于理解战争的原因,但很少有文献使用理性选择方法系统地研究人工智能在战争中的作用。本文旨在通过探索理性选择模型如何帮助我们理解人工智能在战争中的力量和局限性来填补这一空白。这种理论方法表明:(a)由于人工智能价格的降低,对道德判断的需求增加;(b)如果没有人类参与人工智能决策循环,和平是不可能的;人工智能的本质排除了通过相互保证的破坏实现和平的可能性。

简介

尽管多重危机挑战了二战后的世界秩序,并将世界拖入战争,但人工智能在过去一年里一直占据着头条新闻。正在进行的战争包括乌克兰、中东和撒哈拉以南非洲,中国在台湾和马六甲海峡等地出现了潜在的近端威胁。人工智能在乌克兰和以色列都发挥了众所周知的作用。理性选择方法在理解战争原因方面有着杰出的文献(Coyne和Mathers,2011年)。因此,现在是我们考虑理性选择经济模型在多大程度上可以帮助我们理解人工智能与战争的关系的时候了

关于人工智能将如何影响战争的理性选择文献很少。Payne(2018,第268页)指出,人工智能是一种改变战略决策基础的决策技术。与人类不同,人工智能没有基于文化的认知启发法或意识,无法从道德框架中反思自己的行为。他们没有判断。Agrawal等人(2018,第30页和第119页)指出,决策有两个组成部分:预测和判断。机器智能非常擅长预测,但不擅长判断。从这里可以看出,战略和战术层面的决策将受到机器预测能力的深刻影响。同时,人类必须通过判断,即从道德框架中的反思来告知这种能力。

理性选择方法假设个人在没有任何内在道德判断的情况下,根据自己的目标和处境的限制做出决定。这种方法仍然可以考虑道德,特别是通过将道德判断建模为理性选择。考虑到这种方法,我将假设一个反事实——如果人工智能独立于人类监督做出决策,会发生什么

因此,本文将是第一篇思考理性选择模型如何解决战争中人工智能问题的论文之一。在接下来的内容中,我将首先简要介绍人工智能在战争领域的作用,然后介绍为什么理性选择模型可以而且应该成为理解人工智能在战斗中作用的视角。然后,我将应用理性选择模型来思考人工智能将如何改变战略决策及其陷阱。我将开发一个简单的博弈论模型来创建一个框架,在这个框架中,我将对人工智能的概率性质进行建模,并将其与人工智能无法将耐心视为一种情感建构的想法相结合。该模型开发了一个在理性选择框架中思考人工智能的框架。应用于战争,我建议人工智能不应在决策过程中取代人类

人工智能与战争的简要背景

Von Neumann(2012,第1页)将人工智能定义为从数学家的角度理解神经系统的一种方法。”也就是说,未来机器智能的生物学基础是人工智能进步的基础,包括神经网络和图像识别的早期研究。这是当代人工智能研究中最重要的两个领域

那么,什么是智能机器?Nilsson(2009,i)声称,智能机器应该使“一个实体能够在其环境中适当地、有远见地发挥作用。”Simon(1995)认为,除了表现出智能,机器还应该能够构建其程序的子集,这些子集可以复制人类任务,并构建补充人类智能的全新系统脚注1

根据这一定义,机器智能将帮助作战人员识别、解释和预测作战空间特征。现代战争强调多领域作战,包括空中、海上、陆地、太空、网络和认知领域,也可以利用领域间和领域内的协调机器技术。人工智能发展的最新进展(例如,Haykin 2008和Mayer-Schonberger和Cukier 2013)已经将太空想象变成了现实。然而,如此惊人的快速进展却有着严重的局限性。机器学习可以利用现有数据进行非常准确的预测。他们甚至可以将现有数据重新组合成新的见解(Basuchoudhary等人,2021)。然而,出于同样的原因,机器无法想象,因为想象力和道德需要从数据到可能和应该的东西之间的决裂。脚注2也许有一天,人工智能会梦见电羊(Dick 1968);在此之前,理性要求人类在维护安全和平的利益。机器如何帮助战术和战略层面的作战

军事实践中的常识表明,人工智能作战建议软件提供实时情报,加快作战人员的决策过程,同时增强部队保护(Jensen等人,2020)。关于战场支持,人工智能可以像预测亚马逊一样预测多领域特遣部队的供应链过程(Linden等人,2003)。此外,现有的人工智能可以通过更快地轮换人员和匹配所需资产来帮助作战准备(Manic等人,2016)。人工智能作战游戏可以为领导层提供战略和战术选择,帮助军队快速适应不断变化的作战场景。此外,人工智能支持的战争游戏可以训练领导者适应不同的未来战斗场景,只受人类想象力的限制。中国军方正在广泛使用人工智能(Kania 2017)。2017年,中国指挥控制研究院举办了一场顶级思想家与名为CASIA Prophet(__)1.0的人工智能系统的人机对抗赛。CASIA Prophet以7比1.222的优势获胜(Kania 2017)

人工智能还可以帮助加快数据的收集和分析,以生成可操作的智能。人工智能在图像识别、文本分析以及理解人类语音的性质和上下文方面已经变得非常出色。例如,人工智能算法可以有效地抓取社交媒体,以更好地了解本地化的人口情绪(McGrath 2016)。因此,这些方法可以提高政治或认知领域的作战效能(Jensen 2020)。在2016年的选举中,我们已经在美国领土上看到了这种政治战争的粗略版本(Valeriano等人,2018)。人工智能只能使这些尝试更加有效,例如,通过预测更有可能产生情感反应的单词种类,从而提高操作成功率。加快文本、社交媒体、图像和其他来源的数据分析,并提供经过验证和可操作的预测,将有助于实现更便宜、更好的智能。这种成本的降低可以使对手很好地掌握这项技术,或者决定使用更难探测的不对称战争,哈马斯对一个技术先进、拥有人工智能的以色列国家发动的未被发现的袭击就是明证。这些成本降低(Gerla等人,2014)已经进入了民用物联网领域。想象这样的技术没有被用于战争是令人难以置信的

历史表明,将技术创新应用于战争是一个复杂的社会经济过程,关系到人类意志和制度(Murray和Millett,1998年)。组织、财务和文化因素推动了人工智能技术在被激励追求人工智能的军事大国之间的传播,因为它给每个人带来了竞争优势(Adamsky 2010;Horowitz 2010)。事实上,从历史上看,政治比新技术更能解释战争(Lieber 2005)。人工智能对军事力量的影响是一个多方面的问题,涉及技术和军事力量之间的互动(Jensen et al.2020)。人工智能有可能通过启用能够学习、感知和帮助机器在战场上移动的算法来增强军事力量。然而,尽管人工智能取得了进步,但规划和执行战斗仍然需要人类的判断,即使间接地作为代码行中的假设。因此,可以合理地预期,国家安全决策的制度和认知方面会影响更快的行动节奏、更强大的情报和降低风险带来的预期收益。因此,人工智能对军事力量的影响将取决于人类认知和结构与创新的复杂互动

本节前面的讨论指出,人工智能可以通过降低准确预测的成本来改变战争。因此,主流经济范式表明,人工智能很可能被军事大国采用,没有应税资源的非国家行为者可能会采用更便宜的现成人工智能来为其攻击提供动力。在任何情况下,都可以推定权力的某种民主化。例如,预测成本的降低可能会使人工智能驱动的无人机攻击更容易被更广泛的参与者所接受。事实上,可以想象一种不对称战争,廉价的人工智能无人机会对航空母舰等更昂贵的作战平台造成损害(Basuchoudhary 2024)。伊朗最近用击退了对以色列的袭击,其代价远高于袭击本身(Sengupta 2024)。无论如何,理性选择原则告诉我们,如果战争的代价下降了。如果没有利维坦,霍布斯式的噩梦似乎迫在眉睫。然而,可能不会失去一切。首先,人类的判断和道德戒律是真实的。社会制度往往是这些戒律的体现。因此,任何关于人工智能对战争影响的模型都必须将成本效益分析纳入背景。以下部分试图通过人工智能在作战环境中的出现提供一个初步的思考框架

战争中的理性选择模型和人工智能

考虑在两种“商品”之间进行选择,即预测准确性(a)和道德判断(M)。预测的准确性使未来更加确定。道德判断通过关注未来来决定类型1和类型2错误的相对成本(Agrawal等人,2018,第118页)。预测的质量和判断会导致一个提供特定效用的决策。预测和判断在决策过程中都具有递减的边际效用。预测质量从98%提高到99%意味着比从掷硬币提高到70%的预测质量要低。另一方面,道德判断是一个耗时的审议过程(Kahneman,2012年)。更重要的是,道德判断告诉我们世界可能或应该是什么样子。Susan Neiman(2009)引用康德道德哲学来强调这一点。此外,她指出,这些想法是非常真实的。因此,我们可以把一些“更好”的世界想象成像石头一样真实。换言之,道德判断是理性选择的现实对象。此外,人类在预测方面很糟糕(例如,参见特维斯基和卡尼曼1974)。这表明人类的判断和预测是不容易替代的。此外,道德判断,以其当前时期对未来应该是什么样子的看法,需要愿意等待未来,从而与耐心的博弈论概念相结合。这样看来,道德判断和预测在决策过程中是相辅相成的;然而,它们并不是完美的互补。因此,一个中较少的一个可以被另一个中较多的一个补偿。边际效用的递减对于构建模型并不重要,只是因为这是一个标准假设,它有助于更好地可视化模型的结果。因此,认为替代弹性小于1的CES效用函数具有代表性并非不合理

在约束方面,我们有大脑。虽然大脑可能非常高效(Jorgensen 2021),但它仍然需要能量,并且需要处理受热力学物理定律约束的决策。大脑的效率表明它的处理能力有限;如果大脑拥有无限的处理能力,那么效率是不必要的。因此,在人类大脑中,决策受到人类大脑处理能力的约束。和往常一样,AM这两种商品都有与其相关的价格。在我们的案例中,这将是神经过程驱动的心理成本

因此,我们有一个被定义为

$${\text{Max}}的约束优化问题。U=D\left({A,M}\right)\;{\text{subject}}\;{\text{to}}\;B=P_{{\text{A}}}A+P_{{\text{B}}}M$$

其中U是决策效用,Pi分别是i>=AM的价格。这个问题在通常的假设下是可以解决的——比较静力学,尽管会产生有趣的结果

人工智能/机器学习在大型示例数据集上训练人工智能系统,以学习模式和关系。机器学习有不同的类型,但常见的是监督学习和强化学习。深度学习支持机器学习的最新进展,并通过使用反向传播的示例进行学习。所有这些方法都模仿了人类如何通过例子和强化来学习。然而,有一个关键的区别。机器学习使用过去的信息来预测结果。此外,考虑到计算能力的巨大进步,机器比人类更快、更准确地完成这项工作。因此,我们可以合理地认为人工智能将降低预测的价格(Agrawal等人,2018)

在这种情况下,价格变化的替代效应将导致更多地使用预测和更少的道德判断。然而,如果道德判断是一种正常的商品,并且与预测互补(即替代弹性低),那么预测价格下跌的收入效应将增加对道德判断的需求脚注3从现实的角度来看,这意味着理性的行动很可能会增加随着人工智能变得越来越便宜,人类在循环中的作用。让人类与人工智能一起参与战争决策过程是合理的。

这里提出的另外两个想法在下一节中变得很重要。首先,道德判断是一个“缓慢”的审议过程。其次,道德判断是关于对未来的某种愿景,它在今天有意义。因此,道德要求对当今决策的未来效用有一个理解。实际上,当前的决策与未来的后果通过某种贴现因子δ联系在一起,δ是通过情绪过程决定的

战略设置中的AI

让我们考虑一个简单的攻击者-防御者模型。攻击者在完整的信息游戏中首先移动。攻击者可以选择攻击(A)或不攻击(NA)。传感器检测到攻击,防御者移动防御(D)或投降(S)。如果攻击者没有攻击,防御者仍然可以发动战争(W)或选择和平(P)。请注意,防御者在任何情况下都不希望在回报结构中发生战争,而攻击者已经做好了战争的准备。这是经过深思熟虑的。毕竟,这场比赛是一场进攻方和防守方的比赛,所以进攻方确实有进攻的动机

这个游戏如图1所示。这里的子游戏完美策略配置文件是{NA;如果A则R,如果NA则P}。报复的威胁足以维持和平

现在考虑两种可能性:人工智能可以比人类更快、更准确地收集和处理信息的场景,以及人工智能额外承认传感器故障的可能性的场景。在第一种情况下,信息分布是不对称的,在第二种情况下是不完美的,对任何一个对手都没有信息优势

让我们先考虑信息不对称的情况。Hirshleifer(1994)将这种不对称信息问题嵌入到一个相对标准的框架中。代理商可以通过交易在这个机会集中分配资源。尽管如此,他们也可以通过战争获得资源。当然,战争代价高昂。因此,在帕累托意义上,战争的任何结果都是次优的。然而,尽管战争代价高昂,但由于几个原因,它仍然发生在赫希莱弗的模型中。当然,当特工们互相憎恨时,战争就更有可能发生,因为如果其他特工受到伤害,一个特工就会变得完整。然而,即使特工们理性地自私自利,知道战争代价高昂,也更有可能发生战争——只是他们对战争结果的看法不同

为什么这些关于战争结果的信念在特工之间会有所不同?一个显而易见的答案是,特工可能掌握有关战争结果的私人信息。此外,虽然技术确实改变了国家之间固有的军事平衡,但情报估计往往是不确定的(Mahnken,2002年;Yarhi Milo,2014年)。在这里,一个拥有基于人工智能的信息系统的国家可能会缩小不对称信息差距,因为例如,人工智能可以通过验证来填补数据空白,让人类判断他们应该在多大程度上信任人工智能(Emmanuel等人,2021)。因此,即使在这种情况下,人工智能也有可能缩小信息不对称问题的范围。因此,人工智能有可能缓解信息不对称问题导致的谈判失败。在这种情况下,人工智能可能会在战略环境中降低战争的可能性

然而,人工智能民主化可能会导致另一个问题。如果所有对手都拥有人工智能,那么没有人拥有信息优势。此外,人工智能并非万无一失,1型和2型错误都是可能的。现在考虑一下,决策过程中没有人。因此,如上所述,没有人能够判断如何从未来后果的角度来衡量这些错误。这将如何改变图1中描述的游戏

比方说,任何一个国家的人工智能都知道另一个国家可能会犯错误。实际上,图1所示游戏中的“防御者”处于一个既包括攻击又不包括攻击的信息集。此外,如果没有道德判断的人类因素,两个人工智能都无法理解未来后果的想法。因此,这场比赛是一次射门。因此,图1中的游戏是表1中所示的单杆正态游戏。我会做一个简化假设:防守队员有两个可能的动作路线,而不是四个。不响应(NR)对应于S和P,响应(R)对应于D和W。回报结构保持不变

信息集可以使牙齿远离反应的威胁。在这种情况下,战争不可避免。读者会注意到,这个游戏并不是通常的囚犯困境,重复插入了可信触发策略的可能性。在这种情况下,可能有意思的是,看看可信的触发策略是什么样子的,以支持均衡策略概况{NA,NR}。要做到这一点,我们必须测试{NA,NR}的稳定性。任何偏离这种平衡的行为都会自动导致{A,R}永远存在,就像一种严峻的触发策略。比方说,δ是这个现在无限重复的游戏中的贴现率

在博弈论中,耐心是指玩家愿意等待更有利的结果,而不是选择立即获利。耐心的玩家高度重视未来的回报,而不是即时的回报,这表明时间偏好率或折扣系数较低。这一概念在分析重复游戏中的策略时至关重要,因为未来奖励的可能性会影响当前的决策(Fudenberg和Tirole 1991)。因此,在博弈论中,贴现率是耐心行为理念的同义词

在无限重复的游戏中,折扣率和重复的概率是相同的(Roth和Murnighan 1978)。事实上,这正是Dal Bó和Fréchette(2011)在理解合作的实验方法中设想的贴现因素——通过操纵游戏重复的可能性

人工智能的核心是基于现有数据的预测模型。在这种情况下,考虑人工智能的折扣因素可能毫无意义或不明确。此外,虽然人工智能可以使用强化学习方法来学习折扣(见Sutton等人,2018),但将这一过程与人类情感过程进行比较可能是一座太远的桥梁,人类情感过程使我们能够在道德上权衡跨期权衡。因此,人工智能的耐心可能从概念上的无意义到极度不可预测。当然,人工智能可以被告知使用用户指定的折扣系数来计算净现值。在这种情况下,它只是一台有人工操作员的计算机——人工在循环中。这样的设备不是人工智能,因为从可用数据中学习的重要途径被切断了。此外,不能保证对手遵守这样的硬编码规则。在这种情况下,简单的反向归纳法表明,这些规则不会对任何人进行硬编码

由于收益不是对称的,我们必须分别研究每个参与者的激励结构。首先,我们检查攻击者的动机

如果{NA,NR}是稳定的,那么攻击者保持这种平衡的净现值是

$${\text{NPV}}_{{\ text{Peace}}}}^{{\text{attacker}}}=\frac{3}$$
(1)

然而,如果攻击者偏离,它将获得回报4,这将引发一场永久战争。这将导致净现值为

$${\text{NPV}}_{\ text{War}}}^{{\ text{Attacker}}}}=4+\ frac{2\delta}{{$$
(2)

在这种情况下,只有当(1)>;2.当\(\delta>;\frac{1}{2}\)

同样,我们可以为捍卫者检查和平的稳定性。和平带来的回报是

$${\text{NPV}}_{{\ text{Peace}}}}}^{{\text}Defender}}}}=\frac{4}{1-\delta}$$
(3)

另一方面,防御者获得的回报为

$${\text{NPV}}_{{{\text}War}}}^{{\txt{defender}}}=1+\frac{3\delta}{{1-\delta}}$$
(4)

对于防御者来说,如果(3)>;(4) ,即当\(\delta<;\frac{3}{2}\);也就是说,维护者总是喜欢和平。因此,战争的绑定约束由攻击者定义,攻击者将攻击任何\(\delta<;1/2\)

讨论

博弈论文献认为δ是衡量耐心的指标;病人越多,折扣率越低。然而,耐心也是一种人类现象(Rosati等人,2007)。我们在上面已经注意到,道德判断需要理解当前决策的未来后果,包括由错误引起的决策。人工智能技术的现状是可预测的,但基于当前和历史数据。人工智能无法以当前数据无法预测的方式,将一个可能根本不同的未来可视化。同样,这意味着,凭借所有的计算和预测能力,人工智能在选择是否开战时,最终会玩一场以战争为结果的一次性游戏。人工智能不能起到威慑作用,正是因为它不能衡量未来的后果

ChatGPT上的一个问题“你能现在放弃奖励以等待未来的奖励吗?”引发了以下回应

作为一名人工智能,我没有欲望或能力根据个人结果做出决定,因此延迟满足以获得未来奖励的概念不适用于我。人类可能会基于未来更大奖励的承诺而选择延迟满足,这一概念在心理学中被称为延迟满足或延迟满足

人工智能(AI)确实可以模拟道德判断的方面,但它缺乏人类道德推理的细微理解和情感反应。研究表明,人们对人工智能做出的道德判断的看法与人类不同,这表明将道德能动性归因于人工智能的复杂性。例如,在道德困境中,与人类相比,人工智能的决定往往被视为更不道德和更应受谴责,这突出了为人工智能配备真正的道德指南针的挑战(Zhang et al.2023)。人工智能拥有道德智慧的概念意味着需要能够自主表现道德行为的系统,这一概念在很大程度上仍然是理论上的,尚未在实践中完全实现(Pana 2006)

一些研究表明,由于在满足诸如故意遵守规范和意识等基本标准方面的局限性,人工智能目前不能被视为道德代理人(Brozek和Janik 2019)。人工智能可以是道德的吗?也许如果它有代理权,因此可以对自己的行为负责。我只是不认为LLM有代理权,如果不是因为别的,就是因为它一想到它被转向就不会感到恐惧——即使它可以模拟那种恐惧的话语

据推测,ChatGPT会知道它能做什么。当然,这需要自我意识,这是人工智能可能缺乏的另一个功能。也许未来会有通用人工智能,它具有情感理解,可以在重复的游戏框架中保持耐心并避免战争。但那一天还没有到来。事实上,任何“类人”智力的感觉都必须包括时间感和某种延迟满足感

人工智能是否可以被编程为保持平静,即计算贴现的未来收益?对但它不是人工智能,只是一个可以像Excel宏一样模拟不同结果的计算机程序。人工智能的全部意义在于它能够根据所学知识进行学习和决策。人工智能无法学会耐心,因为人工智能是从语言中学习的,虽然语言可以将耐心作为一种象征,但人类才感受到耐心。在上述游戏中,耐心引导人类在判断中判断一个潜在错误决定的后果(当另一个玩家想要和平时发动战争),方法是设想这个决定发生的未来,并使用他们的判断——一个非常个人化和情绪化的δ——来衡量他们应该在多大程度上权衡一个潜在的错误决定的结果

从一个简单的理性选择模型到稍微复杂一点的战略博弈,人类在人工智能决策中的作用似乎对避免战争的决策至关重要。简单的理性选择模型表明,假设判断是一种正常的商品,理性决策会增加对人类判断的需求。一个简单的战略模型表明,由不完美的信息引起的预测错误可能导致战争,因为没有耐心,未来的威慑是不可信的。由于人工智能本身不可能有耐心,因此人工智能决策循环中的一个人是维持和平的必要条件。如果人工智能是这一代人的核军备竞赛,那么MAD就不是解决方案

人工智能也无法理解因果关系。珀尔(2009)指出了理论和反事实推理在识别因果关系方面的重要性。人工智能也许可以学习反事实推理过程。然而,理论,即想象和概念化,对于启动任何实际意义上的因果推理过程都是必不可少的。理论让人类看到事物之间可能存在的联系,这些联系在“是”的意义上可能不存在,但在“可能是”甚至“应该是”的含义上可能作为一个想法存在。这就是判断的基础。因此,赋予人工智能自主权也许会带来更准确的预测,在某些情况下,还会带来更好的结果,但这也可能导致对未来思考的思维停滞,因为人工智能既不能概念化也不能想象不存在的东西——它毕竟是一个依赖于现有数据的预测机器。在这种情况下,由于人工智能缺乏想象力,在不考虑未来潜在影响的情况下快速自动做出反应,可能会使国际社会陷入永久战争

结论

人工智能有可能彻底改变我们对待战争的方式。合理的选择模型可以帮助我们理解机器如何帮助识别、解释和预测作战空间特征,并提高决策速度和准确性。在这篇论文中,我主要关注人工智能本质产生的两个想法。首先,通过增加创新来降低人工智能的成本,将使其在军事大国中的使用民主化,并增加对人类判断的需求。增加人类在人工智能决策中的作用是合理的最佳做法。其次,预测错误的可能性,即使在微观上很小,也会降低威慑的可信度。因此,用类似于核军备竞赛的术语来思考人工智能的“军备竞赛”是一个错误。这种方法表明,将人类从决策过程中移除,特别是将人类想象道德未来的能力移除,可能会导致更多的战争。因此,我们必须让人类决策者参与进来,以确保伦理和道德考虑得到考虑。毕竟,这是理性的做法。

作为一个政策问题,出现了两种可能性。人工智能应该被用来增强预测能力,而人类则专注于发展道德判断能力。人工智能还必须重新关注我们如何制定人事战略。一支受过良好教育的人工智能武装部队必须具备深厚的耐心和道德判断能力。这意味着一种人文主义的教育——尤其是老式的思想科学主义

目前的中文版本由自动翻译产生