2023 年 4 月,科技公司 Palantir 发布了一个名为人工智能的支持大型语言模型 (LLM) 的战斗管理软件的演示 国防平台(AIP)。 该平台将基于人工智能的交互式聊天功能与看似完美的情报收集和查询结合在一起。 这与军事指挥决策的行动方案生成能力相结合。
在演示过程中,平台会通知军事操作员敌方编队。 使用聊天窗口,操作员可以通过发送无人机检索视频片段来请求并接收更详细的图像,从而识别敌方 T-80 战斗坦克。 然后,操作员要求平台生成几种可能的行动方案,其结果被发送到更高的指挥层进行进一步分析。 然后,指挥官从平台聊天窗口上列出的选项中进行选择,并根据编译的综合地理空间情报,Palantir 系统生成与敌人交战的最佳路线。 然后,指挥官迅速决定扰乱对手的通讯,以保护前进的友军部队。 在演示中,该软件可以“自动”识别相关通信节点,并通过部署可用的干扰器来破坏对手有效通信的手段。 最后,在审查了作战计划摘要后,指挥官发布命令,干扰敌方通讯,并指派部队摧毁敌方坦克。 借用社会学家詹姆斯·吉布森的话来说,这确实是一场“完美的战争”。
在演示中,现实战争中典型的混乱消失了,战斗的混乱得到了控制。 敌人表现为平台发挥其功能的空白画布。 那么,与你身边的人工智能平台软件进行战争,看起来既轻松又高效。 或者正如 Palantir 首席执行官 Alex Karp Technologies 将该公司的平台描述为“让您获胜的武器。”
Palantir 演示范围内不存在任何机构的敌人,这是一种“信息环境”不完全由运营商主导的偶然情况。 人工智能平台,或考虑到用于训练底层系统功能的数据可能是混乱的、中断的或不完整的,或者反映了有问题的 偏见。 演示中根深蒂固的假设是具有完美信息和技术性能的原始环境,以及简单接受这些情况的对手。 这是一种空洞的战争观。
虽然是一个很好的案例研究,但 Palantir 的平台不仅仅是一次性案例。 关于ho的讨论正在进行中w 人工智能将更广泛地用于军事规划和指挥决策。 国防部继续追求所谓的联合全域指挥与控制,它至少在一定程度上希望将人工智能和机器学习融入美国的指挥决策中—— 制作过程。 此外,美国陆军正在与数据提供商和注释公司 Scale AI 及其名为 Donovan 的平台合作,以试验大型语言 模型可能能够协助联合全域指挥和控制。 根据 一位官员表示,“大型语言模型对于我们军团的数据中心战愿景至关重要。”
在这些持续发展的背景下,暂时搁置围绕人工智能在战争领域的地位的基本伦理问题,所有关于人工智能如何融入军事决策的建议 - 制定应将破坏和欺骗的风险作为任何操作系统的核心。 值得赞扬的是, 海军陆战队大学教授 Ben Jensen 和 Scale AI 的 Dan Tadross 在他们的 最近讨论使用大型语言模型进行军事规划。 然而,人工智能如何与战争联系起来的主导模型不应该是 Palantir 等平台提供的完美可视化。 国防官员、政策制定者和公众应该对技术如何改变军事冲突的这种原始图景保持警惕。
拥有投票权的敌人。 “敌人有投票权”是一句常见的格言,用来避免任何军事冲突都会完全按计划进行的观念。 其基本思想是,即使是最好的作战设计,在面对敌方力量时也会受到破坏和意想不到的结果。 然而,从战争中支持大型语言模型的平台的一些新兴观点来看,想象中的敌人明显缺乏能力,无论是在所谓的信息领域内进行抵抗还是在可能性方面 为了欺骗。
就冲突中谁拥有代理权而言,至少在 Palantir 人工智能平台演示的背景下,只有一方采取行动,利用电子干扰技术,受益于传感器和 与软件相关的情报融合能力,在战场上表现为某种主权或外部观察者。 这是一场与对手的对抗,对手的力量在屏幕上仍然是静止的橙色方块。 因此,重大问题很快就会出现。 例如,如果更广泛的链接情报收集系统被破坏怎么办? 或者假设支持地面部队、无人侦察机和指挥链之间无缝联系的复杂架构被打破了? 这些类型的问题呼应了过去对技术支持的军事指挥系统有关以下问题的担忧: 决策瘫痪,过度集权的倾向,或者使力量过度依赖技术,而技术注定会在某个时刻崩溃。 正如战争和国际安全领域的学者所说,信息通信技术或人工智能的梦想促成了军事解决主义 可能被夸大了。
任何私营公司都不会希望在新产品演示中指出这些特征。 因此,在该框架内,演示的简洁性是可以理解的。 然而,任何以如此简单化、片面化的方式描绘战争的系统如果想在未来的军事冲突中占据一席之地,就必须被迫参与上述调查。
技术障碍和信任问题。 人工智能系统与决策过程的无缝集成将面临以下问题: 信任。 对于使用人工智能的自主武器,研究表明,出于安全性、准确性和可靠性方面的考虑,军事人员对部署这些系统持怀疑态度。
一些人认为,这种可靠性可以通过类似于其他军事技术的教育随着时间的推移而发展,例如飞行 驾驶舱仪表。 虽然培训确实可以提高一定程度的熟悉度,但人工智能系统的复杂性给信任问题带来了不同的维度。 虽然先进,但驾驶舱仪器通常在定义的参数内运行,并且可由训练有素的飞行员直接解释。 它们的职能具体、透明且可预测。 另一方面,人工智能系统采用复杂的算法,并以不透明的方式从训练数据中学习。 此外,人工智能系统对对抗性攻击的敏感性使信任问题进一步复杂化。
黑盒模型。在最近发布的论文,OpenAI 的作者表示他们“不明白它们[大型语言模型]是如何工作的。” 黑匣子问题指的是这样一个事实:尽管人工智能模型具有一定的能力,但要准确理解或解释人工智能模型如何在给定特定输入的情况下得出特定输出通常具有挑战性。 这是由于“神经元”的复杂网络和这些模型中涉及的大量参数造成的。 实际上,当大型语言模型生成作战计划时,规划出导致最终结果的具体流程和决策可能极其困难。
有几种工具可以帮助缓解人工智能系统的可解释性问题。 例如,显着性地图有助于查明最重要的特征 通过梯度、激活或扰动的分析,用于模型决策的输入数据。 另一方面,部分依赖图显示了a之间关系的方向和大小 特征和预测结果。 Shapley 值计算某个特征对预言。 此类方法可能有助于缓解可解释性问题,但它们通常不直观或不易被非专家理解,从而限制了它们在促进人工智能系统透明度和信任方面的有效性。
国防部官员了解这个问题。 梅纳德·霍利迪, 负责关键技术的副首席技术官表示,如果不了解模型的训练方式和数据,指挥官就不会信任模型。 这个问题促使国防高级研究计划局 (DARPA) 创建了可解释的人工智能 (XAI )在 2015 年制定了“理解、适当信任和有效管理”人工智能系统的计划。 随着 2021 年该计划结束,XAI 议程似乎已经放缓,大多数 这些举措的好处最终不是针对最终用户,而是针对使用可解释性进行调试 他们的模型。 该计划中一个预期但有意义的发现是建议性——人工智能系统接收信息的能力 用户的更正——比可解释性更能提高信任度。
训练阶段问题。大型语言模型也面临与其训练数据相关的风险。 在训练阶段的对抗性攻击涉及干预数据集、更改输入特征或操纵数据标签 。 这种投毒尝试涉及将恶意或不正确的数据引入模型的训练数据集中,目的是破坏模型的学习和后续行为。 虽然一些数据中毒攻击可能只会降低人工智能系统的性能,从而导致普遍不准确和低效率,但可以设计更复杂的攻击来引起系统的特定反应。
研究人员证明向网络注入“数字毒药”是可行的 维基百科等内容,通常用于创建训练数据集。 因此,军方打算专门使用 国防部数据。虽然这无疑是朝着正确方向迈出的一步,但它并不能完全排除与非国防部数据相关的风险,这些风险需要达到实用程度 以及 ChatGPT 等模型的多功能性。 最近陆军请求提供有关保护其数据集的信息表明对答案的搜索仍在继续。 陆军的要求寻求解决训练阶段挑战的方案,包括数据加密、安全审计和数据完整性,以及数据集遭到破坏时应采取的补救措施。
部署阶段问题。模型部署后,问题仍然存在。 即使是最先进的技术系统——尤其是支持大型语言模型的技术,众所周知,当遇到训练数据集中未包含的情况时,该技术会出现意外行为——也不应被认为不受部署后问题的影响。 更令人担忧的是,研究表明,即使攻击者仅具有对模型的查询访问权限,人工智能模型也可能容易受到对抗性攻击。 一种众所周知的攻击类别,称为物理对抗性攻击,针对在现实世界中执行的 AI 模型而不是 数字领域可能会导致人工智能误解或错误分类其感知的内容。 研究强调即使在输入中添加小幅度的扰动也可能会导致严重的欺骗。 例如,只需在路上贴上贴纸,研究人员就可以欺骗特斯拉的自动驾驶仪 驶入迎面驶来的车辆。
欺骗历来是一种战争的核心部分,为军队提供优势,可以误导敌军延迟行动或彻底出其不意。 事实证明,军事人工智能系统很容易被相对简单(即使不是创意)的技巧所迷惑。 在一个众所周知的案例,在测试场景中,哨兵系统无法识别正在接近的美国海军陆战队员,因为他们只是用树皮遮住了脸。 期望对手不尝试类似的策略是不明智的,特别是如果他们知道许多人工智能系统如何脆弱 是。 此外,人工智能系统可能会对其性能表现出过度自信的问题。 例如,在 2021 年,空军目标算法使用所谓的“合成数据”进行训练,即用于构建数据集的计算机生成数据,否则这些数据集可能很难收集,尽管它成功了 识别物体的准确率达到90%。 然而,真实数字接近 25%。
乌托邦战争? 历史学家邓肯·贝尔认为“乌托邦是创造世界的引擎, 一个无处,标志着某个地方未来可能的实例”,“一个假设解决方案的详细阐述”。 在一些乌托邦的记述,科技进步被设想为最终实现的道路。 在许多方面,Palantir 人工智能平台等人工智能支持系统构建了乌托邦战争的愿景,确定了一个未来,先进技术使军事决策过程类似于从人工智能中反弹一些情报请求或行动方案 -启用聊天系统。 它设想了对敌人的全面了解,友军有能力在不受反对派影响的情况下采取行动,并且能够在几秒钟内快速生成可靠的攻击计划清单。 因此,此类平台为军事指挥的一些核心复杂问题提供了“解决方案”,或者如美国海军陆战队指挥条令,“不确定性和时间的双重问题”——至少对于拥有这项技术的幸运者来说是这样。 但与大多数乌托邦愿景一样,这种技术熟练程度的投射图像存在潜在问题,它们应该警告我们不要仅从表面上接受这种表述。
即使上述有关系统破坏和欺骗的担忧得到解决,Palantir 等平台仍为我们提供了一种战争景象,其中暴力和政治隐藏在复杂、高度审美化的技术显示器后面 。 因此,战争以数字块的形式呈现,通过人工智能系统的帮助,这些数字块是可知和可管理的。 正如学者 Anders Endberg-Pederson 在其关于美学设计与战争、系统之间联系的著作中所指出的那样 类似于人工智能平台反映了一种“选择性麻醉,对战争残酷现实的弹性麻木”。
国际关系学者指出,这样的体系非但没有让战争变得更加清晰和干净,反而有可能让战争变得更加混乱。 从历史上看,先进的计算武器系统包括AEGIS 和 爱国者导弹 - 已知具有针对性和 向非预期目标开火。 在当前的情况下,研究人员Avi Goldfarb 和 Jon Lindsay< /a> 认为,旨在拨开战争迷雾的人工智能系统也可能给决策者带来更多困惑。 这些是分析师、政策制定者和公众如何看待人工智能与战争交叉点的首要期望。
重要的是,我们对于人工智能如何与战争相结合的心理模型并不是在未来某个时刻需要担心的琐碎考虑。 尽管全球不断努力让致命性自主武器系统远离战场,但人工智能很可能将进一步融入战争领域。 例如,Palantir 的 Alex Karp 最近表示该公司的软件正在乌克兰的定位流程中使用(尽管 目前尚不清楚该软件与人工智能平台演示有多相似)。 今年 7 月,卡普还在 纽约时报框架军事发展 人工智能是“我们的奥本海默时刻”,并提倡追求人工智能支持的军事系统,以应对“那些不会停下来沉迷于关于开发具有关键军事和国家安全应用的技术的优点的戏剧性辩论的对手”。 此外,据报道,双方都在冲突前线部署了具有自主能力的系统 乌克兰语和俄语部队,特别是以无人机和徘徊弹药的形式。 随着人工智能与战场上的生死决定进一步联系在一起,在接受人工智能引发的冲突的空洞观点之前,必须犹豫一下。