原创研究
人工智能、责任归属和可解释性的关系证明
作者: Mark Coeckelbergh
原文发布于 2019-10-24 springer 原文链接 下载原文PDF 打印 English

简介

本文讨论了使用人工智能(AI)技术引起的责任归属问题。假设只有人类才能成为负责任的代理人;然而,仅仅这一点就已经引发了许多问题,这些问题是从亚里士多德的两个责任条件开始讨论的。除了众所周知的多手问题之外,还确定了“很多事情”的问题,并在涉及控制条件时强调了时间维度。特别注意认知条件,这引起了对透明度和可解释性问题的关注。然而,与标准讨论相反,随后有人认为,关于责任代理人的知识问题与责任关系的另一方有关:责任的收件人或“患者”,他们可能会要求使用人工智能做出行动和决定的理由。因此,在关系方法的启发下,作为责任的责任提供了一个重要的额外理由,即使不是主要的理由,也可以基于可解释性,而不是基于代理,而是基于耐心。

简介

为了回应人工智能(AI),特别是机器学习应用的最新进展和成功,人工智能的伦理已经成为学术界和公众讨论技术未来的热门话题。学术贡献从关于超智能的推测(例如,Bostrom 2014)到关于特定的、可以说是更近的未来技术和现象的讨论(例如,Helveke和Nida-Rümelin 2015;Nyholm和Smids 2016)。例如,有关于未来工作和隐私的公开讨论。或者举另一个交通部门的例子:考虑最近波音737 MAX飞机坠毁后,关于飞机自动化的讨论,这可能与软件故障有关,飞行员试图重写软件。鉴于人工智能使社会能够自动化更多的任务,并在更大程度上实现自动化,谁或谁对使用这项技术的好处和坏处负责?如果应该在技术和政策领域积极解决这个问题,那么“负责任的人工智能”的发展意味着什么?这不仅是一个哲学上有趣的问题,也是一个非常实际的问题,迫切需要更多的概念工作。它还涉及(其他)自动化技术的伦理,尽管存在一些特定于某些人工智能的问题(例如,下文将提到的所谓“黑匣子”问题)。但归因讨论也指出了一个问题,这不仅是关于责任的代理人,也是关于责任关系中患者的问题。

这是本文的摘要。责任归属问题最初是通过区分两种亚里士多德责任条件来解决的,一种是关于控制和确定责任主体的需要,另一种是考察主体的知识。首先,我们假设,即使人工智能技术获得了更多的代理权,人类仍然负有责任,因为只有后者才能承担责任:人工智能技术可以拥有代理权,但不符合道德代理和道德责任的传统标准。然而,在责任归属和分配方面存在许多挑战,这不仅是因为“手多”的问题,也是因为我所说的“很多事情”。当谈到原因时,考虑时间维度也很重要。然后,特别关注与一些机器学习应用程序相关的知识问题,这些知识会对责任产生影响。通常,这些问题是从透明度和可解释性的角度来讨论的。然而,与文献和公共环境中的大多数讨论不同,它补充道,当涉及到可解释性时,收件人的问题不应被忽视:那些道德代理人对其负责的。从更关系的角度来看,责任关系中不仅有道德代理人,也有道德患者。有人认为,对可解释性的要求不仅是通过知识条件(知道你作为责任代理人在做什么)来证明的,而且应该基于道德要求,即向你负责的人、责任患者提供决定或行动的理由。最后,还探讨了“关系”责任一词的其他含义:集体责任和解释的社会方面。

请注意,我意识到从亚里士多德的方法开始,就像所有标准的责任方法一样,有其局限性和限制。例如,它假设技术仅仅是工具和工具,从只有人类才能成为负责任的代理人这一前提出发,倾向于关注个人责任,并关注责任的代理人而不是责任的患者。其中一些假设,如工具性和只有人类才能成为负责任的代理人的观点,为了限制我的论文范围,我将提及但不详细讨论;我在其他地方讨论过这些问题。我在本文中提出了其他假设:与标准方法相比,关系强调能够实现更为社会和患者导向的方法这些问题有助于解决与人工智能责任相关的实际和哲学问题。例如,Turner(2018)提供了与私法和刑法中的许多法律文书相关的责任问题的有益概述。这也是非常有趣和相关的,但超出了本文的范围

在论文的过程中,我将主要给出交通领域的例子,特别是自动驾驶汽车和飞机,但这里所说的不仅适用于这些领域,还适用于人工智能的所有用途,通常甚至适用于各种自动化技术和人工智能应用。我的主要目标不是阐明具体案例,而是为思考人工智能和其他先进自动化技术的责任提供一个总体概念框架,重点关注人工智能作为机器学习

责任归属问题:谁或什么是责任的代理人

当人工智能出现问题时,能够将责任归咎于它是很重要的。例如,在自动驾驶汽车或飞机使用人工智能的情况下,应该问:如果汽车或飞机自动驾驶仪的自动化系统导致事故,谁负责?除了这种向后看的责任之外,我们还可以前瞻性地问:如何以确保负责任地使用人工智能的方式来塑造技术及其社会环境?例如,人们如何开发基于人工智能的汽车和飞机,以帮助预防事故?尽管我的讨论将主要集中在与人工智能使用相关的责任归属上,但这也会对人工智能的负责任发展产生影响

当人类在行动和决策时,机构通常与责任联系在一起。你对世界和其他人都有影响,因此你对自己的行为和决定负责。然而,责任归谁并不总是很清楚。可能还不清楚具体是谁造成了相关后果(例如,伤害,但也可能是好处),即使清楚是谁造成的,也可能是该人不是自愿行为或不知道自己在做什么。那么,个人和社会如何、向谁、何时才能有意义地将责任归责?在人工智能的情况下,这对责任归属意味着什么

解决责任归属问题的一个有用方法是从责任的条件入手。自亚里士多德以来,至少有两种传统条件可用于归因于行为的责任,即所谓的“控制”条件和“认知”条件(Fischer and Ravizza 1998;Rudy Hiller 2018)。如果(1)你做了(或已经做了)-如果你是行动的代理人,如果你引起了行动,如果你对行动有足够的控制力-(2)如果你知道你在做什么,如果你知道自己在做什么(或知道你在干什么),你就有责任。亚里士多德在《尼科马赫伦理学》(1984年,1109b30–1111b5)中主张,行为必须起源于代理人,并且不能对自己的行为一无所知

在使用人工智能技术的情况下,这些条件(机构/控制和知识)如何

让我们从第一个条件开始,即所谓的“控制”条件。在现代文献中,特别强调个人控制:当且仅当代理人控制其行为时,代理人才对其行为或决定负责(例如Fischer和Ravizza 1998;McKenna 2008)。意图和自由通常与控制条件有关。亚里士多德已经强调,行动需要是自愿的,而不是强迫的。例如,如果一名人类司机导致了一场事故,那么人们会质疑该司机是否真的造成了事故,如果特定的行为是自愿的,现在出于认知条件,如果她可以做出不同的选择(如果有其他选择的话),如果司机知道她在做什么(例如,她是自愿发短信,但不知道该行为的影响吗?)

现在所有这些都假定责任的代理人是人。基于人工智能的代理怎么样?为了回应人工智能技术获得更多代理权的事实,人们可能会很有兴趣探索这些技术本身是否能够成为负责任的代理。在计算伦理和机器人伦理方面,关于这一主题和道德代理的相关问题进行了广泛讨论(例如,Sullins 2006;Johnson 2006;Sparrow 2007;Stahl 2006;Moor 2006;Wallach and Allen 2009;Floridi and Sanders 2004;Coeckelbergh 2010)。可以为或提供类似的论点反对人工智能技术可以成为负责任的代理人的想法。此外,为了应对控制问题,人们还可以采取混合方法,将责任概念化为分布在人类和机器网络中(Gunkel 2018a)。例如,受拉图尔的影响,汉森(2009)主张将责任归咎于机器人和演员网络

无论这些建议的解决方案有多有趣,我都不会遵循这些路线。尽管承认(1)技术以一种不仅仅是工具性作用的方式塑造人类行为,(2)人工智能驱动的技术的行为可以在道德上具有相关性(而不必像Verbeek 2006那样暗示道德本身是技术性的),以及(3)先进的人工智能技术可能会让人看起来像是负责任的代理人(Coeckelbergh 2009),本文的其余部分将假设人工智能技术不符合完全道德代理的传统标准(因此preresponsibility的条件),如自由和意识,因此它们也不能(被)承担责任。关于亚里士多德的两个条件,因此假设要求人工智能主体自愿或无无知地行动是没有意义的,因为人工智能主体缺乏这样做的先决条件:人工智能不能真正“自由地”(如:“具有自由意志”)或“知道”(如“意识到”)它在做什么。这是出于形而上学的原因,还是仅仅是一个值得进一步批判的社会惯例问题,在这里并不令人担忧;我认为这是为了为本文中的进一步论点扫清障碍

如果这个假设成立,那么我们唯一的选择就是让人类对人工智能技术的所作所为负责。即使(一些)AI能够采取行动或做出决定(即拥有代理权),他们也缺乏道德代理的能力,因此,他们的行动或决定的责任仍然由开发和使用技术的人类代理承担。事实上,这就是当前法律体系中涉及非人类事物的做法。尽管一些组织可以具有法人资格,但它们的“责任”仍然可以追溯到人类的责任。因此,技术代理人被认为是负责任的:他们不能负责任(因此也不负责任)。然而,人类可以负责,并且应该对他们在开发或使用人工智能时的行为和决定负责

然而,假设这一立场并不能解决责任归属问题:即使只有人类能够成为负责任的代理人,人类是否能够始终对人工智能的使用负责,以及人类对人工智能使用负责,这仍然是一个悬而未决的问题。让我概述一下与控制/代理条件相关的一些责任归属问题

首先,如果人类对人工智能的使用没有足够的控制力怎么办?这就是Matthias(2004)所说的关于自主学习和行动机器的“责任鸿沟”:当人类没有控制或控制不足时,如何才能承担责任?例如,如果我们把金融交易的控制权交给机器,就像在高频交易中一样,那么人类如何才能对这些交易负责呢?如果自动驾驶意味着人类不再有时间干预,那么当事故发生时,谁负责

通常这确实是一个时间问题。考虑一种军事情况,在这种情况下,自动防御系统是唯一能够对攻击做出快速反应的系统:当发生短暂的警告攻击(或实际上没有警告)时,人类无法及时做出反应,现在已经在这些情况下使用了自主模式(Horowitz和Scharre 2015)。例如,考虑一个自动反导系统:在发生攻击的情况下,人类的决策可能太慢,因此使用了自动化。网络攻击会引发类似问题;然后使用可以快速自主干预的软件,在系统受到伤害之前保护系统

鉴于这种情况和自动化的设置方式意味着他们无法做出“最终决定”,在这种情况下,人类如何对此类行动和决策负责?目前尚不清楚如何处理这一问题,因此也不清楚是否应该使用这类系统:社会是否应该创造条件并开发技术,在实际操作中,这些技术不再有人类活动的空间。如果没有人“在循环中”怎么办?如果说应该有人“循环中”(监督)已经没有意义了,因为他们无论如何都无法干预怎么办?似乎使用自动化技术正在许多领域朝着这个方向发展。例如,在大型商用飞机上,自动驾驶仪几乎一直在使用,但当出现问题时,飞行员无法及时干预(比如波音737 max坠机事件)。这样的自动化系统和AI在道德上是可以接受的,还是应该对自动化有限制

其次,技术行动的一个问题是,通常有很多人直接参与该行动,这使得很难(如果不是不可能)(a)找到负责人,如果只有一个人负责,或者(b)让任何个人负责:因为涉及的代理太多,可能会有更多人负责。这种责任归属和分配问题有时被称为“多手问题”(例如van de Poel等人,2012)。人工智能应用程序也提出了这个问题。以2018年3月在亚利桑那州发生的自动驾驶车祸为例:一辆优步汽车导致一名行人死亡。谁负责?可能是软件的开发者、生产汽车的汽车公司、雇用汽车的优步、汽车用户、行人,甚至监管机构(这里是亚利桑那州)。在“软件开发”这一类中,就像在飞机坠毁事件中一样,软件似乎已经失败了,因为它将行人识别为“假阳性”脚注2-可能有很多人参与其中

作为回应,一些作者提出了分布式责任的概念。Taddeo和Floridi(2018)写道:

基于人工智能的决策或行动的效果通常是许多参与者之间无数互动的结果,包括设计师、开发者、用户、软件和硬件…。分布式代理带来了分布式责任(Taddeo and Floridi 2018,751)

这似乎是解决许多人的问题的一个很好的概念解决方案。然而,在人工智能的情况下,承认责任的分布式特性并不能解决如何分配责任的实际问题,因为人们可能不知道所有贡献和交互的程度,并且还面临许多其他挑战。首先,通常有许多当事人参与,但有些人可能比其他人更负责任。例如,在微软2016年的Twitter聊天机器人Tay(一个有争议的聊天机器人,在与用户互动后,开始产生种族主义和厌女的评论,并不得不关闭)一案中,涉及到许多方面:开发者、设计师,但也包括公司和与聊天机器人互动的人。但在对案例的分析中,Suárez Gonzalo等人(2019)主要指出了设计师、开发者和决定插入机器人的人,而不是与机器人互动的Twitter用户,很明显,责任的分配并不意味着责任是并且应该总是平等分配的。第二,责任归属可能很困难,因为一方或多方可能有意歪曲其贡献并试图逃避责任。Suárez Gonzalo等人(2019)正确地强调了发生的事情的社会性质,并确定了一些正在发挥作用的利益和媒体的作用。他们认为,在这种情况下,媒体话语符合微软的利益(Suárez Gonzalo等人,2019,8)。同样,在交通运输部门,也有许多相关方,当涉及到在飞机或自动驾驶汽车事故中扮演角色时,不同方可能有不同的利益。同样,这使得责任归属在实践中变得困难。第三,了解是谁在时做了什么也很重要。航空业等事故调查试图重建什么时候发生的事情以及谁做了什么。这就引出了下一个问题

第三,责任归属和分配问题具有时间维度:谁在什么时间(在哪里)做什么?这可以指技术和具体操作的使用,例如谁在飞机驾驶舱的什么时间做什么(例如处理自动驾驶软件问题),但也可以扩展到技术的发展。在技术使用和开发的情况下,通常存在一条人类代理的长因果链。在人工智能的情况下,这尤其如此,因为复杂的软件通常有很长的历史,许多开发人员参与了软件各个部分的各个阶段。这可能发生在软件跨组织(如公司)甚至同一组织内移动时。在机器学习AI的情况下,也有一个生产、选择和处理数据和数据集的过程和历史,不仅仅是一个人工智能在不同的时间和地点参与和发生。有人(自愿和知情的或不知情的)提供数据,有人收集和处理数据,也有人出售数据,还有人分析数据等。人工智能软件也可以在一个应用程序环境中开发,但后来会在一个完全不同的应用程序环境下使用。例如,原则上,“医疗”人脸识别软件也可以用于监控目的,成为“警察”人工智能。此外,不仅有技术的使用和发展,还有维护。如果维护工作不负责任,包含人工智能的技术系统(比如飞机)也可能会出现故障。为了确定责任,应该检查这段有很多手的因果关系。但就人工智能而言,这样的调查可能非常具有挑战性。如果没有记录且无法追踪,则存在责任归属问题。这就是为什么可追溯性(Dignum等人,2018;Mittelstadt等人,2016)是实现责任和可解释性的重要方式(欧盟委员会AI HLEG 2019);还有可以称之为“许多东西”的东西:许多不同的技术。在人工智能过程和历史中,涉及到各种软件,但更确切地说,涉及到了各种各样的东西,物质技术的人工制品:因为它们对技术行动有因果关系,所以它们是相关的,并且可能具有某种程度的代理作用。有许多相互关联的元素。例如,与飞机软件交互的故障传感器可能导致飞机坠毁;因此,找出技术系统作为一个整体是如何构建的,以及谁负责其部件(例如传感器)的开发、使用和维护以及部件之间的相互作用,这一点很重要。例如,在狮航610航班坠毁事件中,有人认为传感器出现故障,而且硬件的生产和使用通常涉及到许多人工制品(以及生产者、开发者等)。考虑一架飞机或一辆现代汽车,它有许多部件,并且涉及这些部件之间的许多交互。对于有关责任、前瞻性和前瞻性的问题,重要的是要澄清所有这些结构和时间关系和互动:不仅是人类的社会互动和角色,还包括他们与事物的互动以及事物之间的关系和互动。从这个意义上讲,对技术的责任不仅是面子的问题,也是界面的问题。

这也意味着,“人工智能”是否是问题的原因并不总是很清楚,因为它可能是技术系统的另一个组成部分,而不是人工智能,在与人工智能的交互中导致了问题。再次考虑故障传感器的例子。也可能是部件之间的(软件或硬件)连接和接口问题。目前还不清楚人工智能的终点和其他技术的起点。甚至还不清楚“AI”是什么。通常,“人工智能”一词用于智能算法。目前正在讨论人工智能在科学、哲学和政策制定中的定义。但是,不管这些关于人工智能是什么的讨论,对于责任归属来说,重要的是要准确地阐明技术系统中涉及哪些技术组件,它们如何交互和接口,以及它们如何对问题做出贡献并与人类行为体相关联。

最后,考虑到该用户可能不了解人工智能,甚至可能不知道她使用人工智能(或确实被人工智能使用),考虑到最终用户,人工智能的使用“自愿”和“自由”程度如何值得怀疑。这就引出了关于知识的问题。

知识问题:透明度和可解释性

亚里士多德的第二个条件是“认知”条件(Fischer和Ravizza 1998,13):一个人必须知道自己在做什么,或者亚里士多德的消极表述:一个人不能无知。更准确地说,亚里士多德区分了一个人无知的多种方式:

“一个人可能不知道自己是谁,他在做什么,他在对什么或谁采取行动,有时也不知道他在用什么(如工具)做这件事,为了什么目的(如安全),以及他是如何做这件事情的(如是否轻柔或暴力)。(亚里士多德1111a3-5)

Rudy Hiller(2018)从意识的角度翻译了非无知的要求,并区分了当代(分析)哲学家区分的多种意识:行动意识、行动道德意义意识、行动后果意识、,以及(根据一些人)对替代品的认识。但是,有趣的是,亚里士多德还包含了一个关于工具的知识的元素:“他在用什么做”。这一要素经常被哲学家忽略,但技术哲学家应该关注:了解你正在使用的技术对于责任也很重要。

现在,这些对无知的哲学分析可以指导关于人工智能知识问题的讨论。在何种意义上,参与人工智能使用和发展的人知道或不知道他们在做什么

通常程序员和用户知道他们想用人工智能做什么。更准确地说,他们知道他们想让人工智能为他们做什么。他们知道目标、预期后果;亚里士多德会说结束。然而,人工智能的用户并不一定意识到他们所做的事情的-预期后果和道德意义。例如,他们可能不知道他们正在使用的数据集甚至算法中存在偏差。他们可能不知道自己的偏见,这些偏见会流入算法的设计中。他们甚至可能根本没有意识到他们所做的事情在道德上是重要的。(请注意,也有可能是人类专家有偏见,而算法做得更好,正如Sunstein 2018所指出的;算法也可以帮助检测歧视Kleinberg等人2019。然而,这里我们考虑了技术增加或保持偏见的无知情况)。而且他们可能不知道受算法影响的人的确切后果。这可能是一种歧视,例如,某人因为住在某个特定的社区而没有贷款,但也有许多其他可能的影响,其中一些影响更为间接和“遥远”。例如,金融交易算法的开发人员可能不知道因交易而受到食品价格上涨影响的人的后果。有人可能会开发一种图像识别算法,该算法首先用于学术领域,或者本应用于医疗领域,但随后用于监控目的。即使是监视技术的精确效果,开发或使用它的人也并不总是知道,例如,当这种技术创造了一种恐惧文化时。从这个意义上讲,技术永远不仅仅是工具性的,而是在社会和关系环境中使用的。但通常情况下,开发人员和技术用户都不知道这一点。

这就提出了一个问题,即开发人员应该在多大程度上意识到其创作的潜在替代用途和误用。有人可以声称,开发人员有责任意识到这一点。但鉴于所指出的局限性,仅仅声称他们有责任是不够的。另一个问题和更有趣的问题是:如何使开发人员和用户能够并得到支持以获得这些知识?例如,如何在教育和组织中做到这一点?如何克服这些限制

此外,人工智能的开发者和用户也可能对他们的工具一无所知。一般来说,他们可能知道技术是如何工作的,从这个意义上说,他们知道是什么意思,以达到他们的目标,亚里士多德的目的。但这并不意味着他们对这项技术以及与之相关的整个行动链和事物都了如指掌,例如,工程师或管理人员在应用技术之前并不一定了解统计学家(数据科学家)正在做或已经做的一切(反之亦然)。不幸的是,亚里士多德和许多当代分析哲学家都没有在责任条件中包含“与谁”。与所有技术行动一样,人工智能行动通常是集体的,或者如前所述,涉及到许多沿着(时间)线的人。这与责任有关。人工智能的用户,实际上是管理者或监管者,可能并不总是知道其他人正在或已经参与了技术的开发和使用,以及他们一直在做什么和打算做什么。这使得负责任的使用、责任归属和分配变得困难对于人工智能来说,实际上对于算法和数据的使用来说,道德上是重要的(Mittelstadt等人,2016),大多数人工智能评论员都认为,基于机器学习和神经网络的所谓“黑匣子”人工智能系统存在一个特殊的问题。然而,在经典的符号人工智能的情况下,技术做出决策的方式是明确的,例如,通过由领域专家编程到软件中的决策树,而在这些机器学习应用程序中,人工智能系统如何准确地做出决策或建议是不清楚的。这是一个统计过程,创建它的人通常都知道它是如何工作的,但即使是开发人员,更不用说其他用户和受算法影响的人,也不知道系统如何做出与特定人相关的特定决定。他们无法解释或透明决策的所有步骤。

这种缺乏透明度和可解释性在道德上是有问题的,因为再次使用亚里士多德的语言,会造成使用人工智能的人类主体的“无知”,当这些不透明系统的用户使用这种人工智能来决定和行动时,他们不知道自己在做什么。特别是,当他们基于这种人工智能向某人提出建议时,或者当他们基于这类人工智能做出决定或采取行动时,他们会因为不充分了解自己的工具(亚里士多德刚才提到的一种无知类型)而蒙受无知,因此也会因为不知道自己做了什么而蒙受痛苦。例如,当自动驾驶汽车的“司机”一直在使用汽车,但不知道它是如何做出决定的,或者当法官使用人工智能系统来评估一个人再次冒犯的风险,并根据这些信息做出关于该人的决定,但却不知道它如何得到建议时,这些人就有一种不知道自己在做什么的感觉。这可以被视为至少构成了对人工智能的道德上有问题的过度依赖,如果不是一种道义上值得指责的试图推卸责任的行为。但同样,指责人们不足以解决这个问题;应该采取措施避免用户的这种无知。

但正如所说,即使是软件开发人员也可能不知道所提到的“黑匣子”系统是如何达到他们的建议的。因此,无知不仅关系到受AI影响的人,他们甚至可能不知道AI在做什么(例如,在应用程序的背景下,或者当他们向银行索要信贷时),更不用说人工智能是如何工作的。在非透明人工智能系统的情况下,无知也适用于专家用户。请注意,即使在软件的情况下,一般也可能有开发人员不完全理解他们正在编写的代码(再次考虑时间维度:大部分代码可能是很久以前由无法追踪的人编写的)。他们也可能不了解他们的技术未来的潜在用途,或者他们的代码将被使用的不同应用领域:亚里士多德的无知类型,涉及“他在做什么或是谁”。再次考虑医疗技术也可用于军事目的的例子(所谓的“两用”)。即使开发人员和使用算法的人了解算法的工作原理,他们也可能会因为其行为的更遥远的后果而蒙受这种盲目。

因此,对于机器学习和其他先进的人工智能,无知也会打击那些创造和使用人工智能技术的人,例如,当这些技术以不够透明的方式得出其建议或决定时。当AI玩棋盘游戏时,这可能相对无害;在其他情况下,这可能是非常有问题的,甚至会改变生命或致命。想想使用机器学习但无法解释为什么人工智能建议延长某个人的监禁时间的法官,或者无法解释人工智能为什么建议拒绝某个人的信贷的银行家。但也要想想这位737 max飞行员,他不知道为什么尽管他努力控制飞机,但飞机的先进自动驾驶系统却一直将机头向下推。最后,想想飞机公司和航空公司,他们不能很好地向死者家属解释发生了什么。这里所说的对于先进的自动化系统来说都是正确的,机器学习AI与否:不透明和缺乏足够的可解释性给负责任地使用AI和其他自动化技术带来了巨大的问题一个人,能够回答一个正当合理地问“为什么?”当做出决定或采取行动时。这一可解释性和责任的关系方面将我们带到下一节

包括责任患者,或责任作为可回答性:走向更关系的观点

通常忽略可解释性的理由。为什么可解释性很重要?这至少有两个原因很重要。首先,责任代理人需要这样做:为了负责任地行事,对某事负责,代理人需要知道自己在做什么。这是我们的第二个亚里士多德条件。可解释性使代理人能够行使负责任的代理权。然而,它之所以重要还有第二个原因,这与责任关系中的“患者”有关。如果受到关注“谁负责”问题的账户的影响(例如Duff 2005),人们对责任问题采取了关系方法,很明显,不仅有责任的代理人(行为人和应该负责任的人),也有患者,他们受到代理人行为的影响(亚里士多德的“他们对谁采取行动”和其他受这种行为影响很小的人)并且要求代理人负责任地行事,因为她被期望和要求(能够)给出她行动的理由。有一个问题是谁对某事负责(责任归属),但也有一个是谁对谁负责的问题。责任不仅仅是做某事和知道自己在做什么;这也意味着的责任 这也是一个关系和沟通,甚至是对话的问题。责任患者是收件人,即责任关系中的收件人。在技术责任和更广泛的责任的标准描述中,这一角色常常看不见

那么,可解释性不仅是代理人本身的知识问题(作为亚里士多德的责任条件),还可以通过说责任患者需要责任代理人的解释来进一步证明:代理人需要能够向患者解释她为什么做或做了特定的行为、采取或做出决定,例如,人们可以正确地要求法官解释她的决定或要求罪犯解释她的行为。人类的决定和行动需要有可解释性,才能负责任地回顾过去和现在

请注意,责任患者的类别不一定排除非人类,如动物。有些人甚至会添加机器(关于机器是否可以成为道德患者的讨论,例如Gunkel 2018b和Bryson 2016)。如果我们的决策和行动实际或潜在地影响到所有类型的实体,那么我们很可能对这些实体负责。还请注意,将道德患者置于中心位置的伦理不一定关注或局限于可解释性。以列维纳斯的《伦理学》(1969年)为例,其中提出的伦理要求似乎超越了语言,源于对方的“面孔”。然而,就责任而言,责任是一种更明确的责任,就我们所关心的可解释性而言,相关关系是人与人之间的关系,人可以要求、给出和理解解释。(也有可能人类代表非人类或其他人类要求解释)

因此,如果使用人工智能的人类代理人根据人工智能的建议做出决定,并且无法解释她为什么做出或做出该决定,这是一个责任问题,原因有两个。首先,人类代理人无法作为的负责人,因为她不知道自己在做什么。第二,人的代理人也没有对受行为或决定影响的责任患者负责任地采取行动,因为他们受到了行为或决定的影响,所以他们可以合理地要求对该行为或决定作出解释(或者,如果道德患者没有能力或没有能力提出这种要求,让其他人代表他们要求作出解释)

那么,人工智能的伦理应该促进人工智能的发展,支持人工智能代理人(用户、开发者)在这两种意义上的责任:他们应该能够对自己使用人工智能的行为负责,并且应该对受影响的人(或其代表)。那么,就责任作为责任而言,从道德角度讲,重要的不是可解释性作为人工智能等技术系统的特征;主要目的是将可解释性作为人类使用和开发人工智能的一部分的责任。技术上的“可解释性”,即人工智能系统可以“说”或“回答”的内容,应被视为服务于人类主体的更一般的可解释性和可回答性道德要求,人类主体需要一个足够透明的系统,作为她向受技术影响的人提供(潜在)答案的基础。关于人工智能的责任,代理人与患者的关系是首要的,从道德上讲,这是目的;然后,我们应该讨论如何通过技术和其他手段来塑造和支持这种责任关系

这篇亚里士多德关于手段和目的的演讲听起来“工具性”,但不排除考虑技术的非预期后果;相反,它需要它。技术的(明确)功能是做它应该做的事情,例如自动驾驶仪的目标是驾驶飞机。但除了这一功能,除了技术的设计者和用户所期望的目标之外,还有一个伦理问题,即技术系统如何影响代理人对这一自动飞行和他们负责的人员行使责任的方式,乘客的朋友和亲人、飞机上的其他人员、航空公司经理等等。将责任视为责任的关系方法打开了责任关系的生态,这与AI的责任相关

那么,负责任的创新意味着,除其他外,支持构建有助于履行这种关系责任的人工智能系统。技术措施有助于使人工智能更易于解释。有研究人员开发了打开黑匣子的技术(Samek等人,2017;另请参见Adadi和Berrada 2018,了解可解释的人工智能方法概述)。此外,可以采取法律措施赋予人们解释权,而不仅仅是信息权(例如,人工智能的使用以及人工智能的行为),就像现在的欧洲数据保护条例(GDPR)一样。而负责任的创新也意味着询问可能受到技术影响的人需要什么样的解释,同时想象他们可能受到影响的方式(他们可能对技术及其不可预见的后果相对无知,这也是一个需要解决的问题)

倾听可能受技术影响的人的意见尤其重要,因为从科学和哲学角度来说,根本不清楚好的解释由什么组成,以及需要多少解释。一方面,这使得可解释人工智能的目标比预期的更容易实现:一个人可能不应该向人工智能的用户和开发人员要求比向其他人要求更多。对解释的研究表明,一般来说,人们不会提供或期望完整的因果链,不会选择解释,也不会对他们认为对方的信仰做出反应。解释是社会性的(米勒2019)。另一方面,这种对解释的社会和关系理解使得负责任的人工智能被理解为可解释的人工智能的目标更难实现,即如果目标是让人工智能向人类解释事物:人工智能可能无法充分“理解”社会

然而,如果目标不是让机器解释,而是要求能够向其他人解释事物的人类来解释,那么可解释的人工智能可能会起作用。因此,责任并不意味着一个人解释了促成行动或决定的一切,而是一个人可以知道并选择与另一个人(人类)想要和需要知道的相关的东西。在人工智能和其他先进自动化系统的情况下,这可以由人类完成,前提是(a)这些人类有足够的技术系统支持,这些技术系统是透明的足够用于人类向其他人类解释事情的(主要)目的(这里不需要绝对透明),以及(b)这些人类足够愿意、有能力、,并被教育去想象和理解受技术影响的人可能会向他们提出什么要求。这可以通过实际询问利益相关者他们真正想要和需要什么样的解释来支持。假设只有人类才能真正解释,应该解释他们的决定和是的,而且这种解释本身是深刻的社会性和关系性的。

但是人们需要解释还是需要理由?解释可以算作理由吗?如果可以,什么时候?作为责任的责任也可以用理由来表述,或者更具体地说,用给出理由来表述。然后,出于同样的原因,一般的解释似乎也是如此:假设只有人类才能真正给出理由,那么负责任的人工智能意味着人类应该完成这项任务。然后,人工智能的发展应该支持这项人类任务,即向那些提出或可能提出有关技术所介导的行动和决策问题的人提供理由。如果我们作为一个社会,想要尊重人类不仅是自主的,也是社会的,那么人工智能的开发者和用户就应该给那些受人工智能影响的人一个答案:后者正确地要求为影响他们的行为和决定提供理由和解释。那么,对于开发者和用户来说,人工智能的责任机构不仅意味着以特定的方式控制事物和了解事物,还意味着回答、解释、给出理由和沟通。负责任的人工智能和负责任的技术的这些方面不仅是次要问题,也是道德要求。技术开发和技术教育应该以更好地支持人工智能用户和开发者回答“为什么?”问题的方式进行改变。此外,社会应该反思,如果决策的速度和数量过快,例如军事案件或高频交易,导致无法回答或推理,那么是否允许高度自动化,因为“为什么?”总是来得太晚。

最后,对责任的更相关的理解也有助于提出更多的问题,这些问题解决了多手问题,并对传统理论中强调个人控制持批评态度。例如,也许可以通过不仅指向分布式责任,而且指向集体责任来解决一些问题。集体责任可以意味着两件事:责任分配给一组个体行动者(在某种意义上,有一组个体代理人各自承担责任),或者一个集体代理人(如社区或组织)承担责任。但是,虽然谈论“集体代理”可能是有意义的,但谈论“集体责任”则更有争议。这值得我们自己讨论。人们还可以探索和讨论是否存在这样的情况:一个社会作为一个整体(或所有公民,甚至整个文化)构成了责任的代理人,以及患者。例如,如果AI算法中存在偏差问题,但这种偏差存在于语言(例如英语)中,那么似乎不仅是当前语言用户作为个人的责任,也是整个语言用户群体和文化的责任,无论是在现在还是过去。同样,还有一个时间维度:特定语言的历史使用和发展与各种历史和人有关,对当前的语言使用者产生影响,间接或直接影响人工智能的行为及其后果。如果只考虑个人责任,这似乎很难处理。例如,语言语料库中可能存在偏见:如果机器学习AI是在网络文本上训练的,它可能会重现这种历史偏见,例如性别偏见(Caliskan等人,2017)。要解决这种偏见,个人行动和个人责任的概念框架似乎是不够的,即使不清楚集体责任意味着什么,责任可能不可能也不应该总是绝对:即使有人类使用人工智能等技术的自愿行为,也有许多情况、历史、制度等超出了我们个人甚至集体的完全控制,但它们仍然影响着技术的作用和发展。就目前情况而言,人工智能和其他技术的责任可能在一定程度上受到限制,并具有悲惨的一面(Coeckelbergh 2011)。这一悲剧性的维度包括悲剧性的选择:与特洛伊困境的功利主义或道义论讨论所假设的相反,人工智能技术可能会制造无法解决的困境。例如,在自动驾驶汽车的情况下,可能会出现死锁情况;人们应该认识到这一点的悲剧性(Sommaggio和Marchiori 2018)。然而,这并不意味着在这种情况下,责任不能或根本不应该归责,任何事情都不能或应该归责为解决这些问题所做的一切。例如,如果数据集或算法中存在种族或性别方面的偏见,这有一个集体的方面,因为它可能部分是在我们的语言中,也有一个悲剧的方面,人类和社会可能永远无法消除不公正的偏见,但在人工智能的特定使用背景下,它至少可以部分地被技术系统或使用人工智能的人类纠正。如果使用带有人工智能的自动驾驶汽车碰巧导致了无法解决的困境,那么负责任的发展可能意味着这个问题、它的悲剧层面以及如何处理它,应该与利益相关者和整个社会提前公开讨论,而不是给人一种技术或哲学规范理论可以提供“正确”答案的印象。对责任的关系方法绝不应成为逃避责任的借口,而应强调采取负责任的行动的必要性,这种行动应理解为具有互动、对话、透明度和理解的各个方面,包括理解技术行动的悲剧层面

结论:人工智能的责任

这是对人工智能责任的一些问题的概述,重点关注责任归属和责任作为责任的问题。我们从关于使用和开发人工智能的道德代理人的控制和知识的标准讨论转向了更为关联的观点,该观点不仅考虑道德代理人的控制程度和对其行为的非预期后果和道德意义的意识,例如,但也包括受人工智能影响的道德患者:那些可能会要求并理应得到答案的人,他们应该知道对他们做了什么,并通过人工智能来决定他们。在我的辩论过程中,我强调了时间维度:因果链和操作,以及技术开发和使用所处社会的历史。由于人工智能系统已经在今天使用,这些关注不仅在哲学上很有趣,而且非常实用和紧迫。就人工智能已经渗透到我们的日常生活而言,所有人都是本次讨论中谈到的道德患者。如果这里提供的概念框架是合理的,那么道德患者就有理由要求人工智能技术和社会安排,以实现有效的责任归属和分配,并要求相关代理人在使用和开发人工智能时行使其责任。使用这里提出的关系框架,这一行使责任的要求意味着社会应该拥有人工智能专家和操作员,他们能够控制自己,知道自己在做什么,并且能够并愿意与人类和非人类道德患者交流、解释和解释他们在做什么的原因。这包括有义务提高对意外后果的认识,以及他们所做的道德意义,包括他们如何处理悲惨问题。如果AI在这个意义上不负责任,它将崩溃。

目前的中文版本由自动翻译产生