研究文章
人工智能和合理化的不负责任:精英的意识形态?
作者: Mikko Vesa, Janne Tienari
原文发布于 2020-10-22 sage 原文链接 下载原文PDF 打印 English

简介

在这篇Connexions的文章中,我们关注智能代理程序,这些程序是当代人工智能(AI)的前沿解决方案。我们探讨这些计划如何成为渴望的对象,其中包含了改变组织和组织的激进承诺。我们通过“合理化的不负责任”的概念来理解这种情况及其含义,这是一种意识形态状态,在这种状态下,权力和控制是通过算法来实现的。尽管民粹主义对新技术的使用在关键的组织和管理研究中受到越来越多的关注,但我们认为,合理化的不负责任是影响世界各地社会的民粹主义的隐藏末端。这不是大众的民粹主义,而是精英的民粹主义。本文为批判性学者提供了一些前提,以揭示智能代理程序的工作原理,并质疑他们所依据的有问题的意识形态假设。

简介

人工智能(AI)似乎成为高手盛大回报的话题。它冬眠到“人工智能的冬天”,一旦出现了一种新颖和激进的技术突破的承诺,它就会彻底解冻。在这方面,我们生活在一个有趣的时代,因为人工智能再次从冬眠中醒来。其新产品的核心是智能代理或自适应、自主和社交计算机程序 (阿隆索,2014)。本文的目的是探讨此类智能代理程序对组织和组织的批判性研究的影响。
在下文中,我们首先强调智能代理程序的核心能力和探索从业者如何体验他们的承诺。然后,我们概述了这些计划造成的问责问题的类型。我们认为人工智能已经进入了一种“合理化不负责任”的状态,这构成了一种意识形态,它也可以更普遍地描述组织权力关系。对智能代理程序的意识形态信仰让我们质疑人工智能是否应该被理解为现代社会晚期的一种精英民粹主义形式。在此过程中,我们努力补充关键组织和管理研究及其他领域中关于人工智能及其子技术的新兴讨论 (Bader and Kaiser, 2019; Lange 等人,2019Raisch 和 Krakowski,2020 年; Shrestha 等人,2019von Krogh, 2018)。

关于人工智能,颠覆, 和责任

人工智能和智能代理程序通常被解释为破坏性技术(Bloomfield and Vurdubakis, 2015; Lindebaum等人,2020)。颠覆的想法很强大,因为它通过将社会置于与技术的内在和不可避免的关系中,从而塑造了公众对人工智能社会影响的看法。其中讨论最广泛的或许是人工智能在工作转型中带来的颠覆(弗莱明,2019福特,2015; Kellogg 等人,2020)。争论的核心是,人工智能可能会迅速替代劳动力;可能包括高技能的专业人员。因此,社会的未来取决于它如何处理随之而来的技术、经济和社会颠覆(Brynjolfsson 和 McAfee,2014 年Srnicek 和威廉姆斯,2016)。还有关于机器学习和算法决策造成的不稳定的争论(春,2016; Pasquale,2015)。这场辩论的重点是人工智能技术的功能如何导致偏见加剧、创建“回音室”以及在缺乏公众监督和透明度的情况下侵犯隐私(弗里德兰,2019)。最后,进入投机领域,有一组话语最好被描述为存在主义的破坏。在这一类型中,我们发现了人工超级智能的概念化 (博斯特罗姆,2014蔡斯,2015; 哈拉里,2016; Tegmark, 2017),其成就通过创造一个——潜在的意识——优于人类的技术。这种深刻的变化可以被标记为超人类主义、不朽、奇异或灭绝,而我们所知道的“人类”在这些话语中不复存在。
所有这些对于批判性来说意味着什么组织和管理研究?与其强调破坏本身,不如说对人工智能的研究应该是现实的、知情的和谨慎的(冯克罗,2018)。例如,经济中断叙述的有效性存在争议(弗莱明,2019)。 弗里德兰(2019) 认为,将小型日常人工任务的控制权交给基于 AI 的自动化是很成问题的。虽然让算法做事可能对决策者来说很方便,但“大数据”作为机器学习的燃料,既聚合了大量数据并且远离人类的日常生活(Hansen and Flyverborn, 2015< /a>)。因此,令人担忧的是如何使用“难以捉摸和奇怪”的人工智能 (Lange et al., 2019) 产生习得性无助的自我造成的状态 (Lindebaum 等人,2020)。批判性研究人员对算法的道德真实性存在固有的怀疑,但也有争论通过让技术更好地模仿人类来增强所说的真实性(Jago, 2019)。
那是什么这项新技术的责任?问责制没有单一的定义。为了保护它,还需要就它的表现方式达成某种共识。作为探究的主题,问责制具有特定学科的含义:“审计人员将问责制视为财务或数字问题,政治学家将问责制视为政治要求,法律学者将其视为宪法安排,而哲学家将问责制视为子集道德规范' (辛克莱,1995:221)。在英语中,问责制和会计密切相关(Ezzamel, 1997),但在许多其他语言中并非如此。在组织、会计系统和然而,程序为问责提供了一个基础。然而,会计技术倾向于为特定的组织成果提供“选择性可见性”,而不是自动导致更大的问责制(霍普伍德,1984: 179)。在公司治理中,问责制通过各种机制运作,例如争取透明度,而不仅仅是管理层和股东之间的代理问题 (布伦南和所罗门,2008)。
而问责制要求人们解释并为他们的行为承担责任,改变问责制的想法,并且他们以多种方式经历。问责制“以多种形式存在,并通过其上下文持续存在并赋予额外的意义维度”(辛克莱,1995:219)。 辛克莱(1995) 在管理中显示了它的“变色龙”性质:问责制在不断地建设中,它包含了层层意义、矛盾和张力。反过来 Overfield和 Kaiser (2012) 声称当代高层管理人员在让人们(可能包括他们自己)对其决策和绩效负责方面存在问题。根据这些作者的说法,“让人们陷入困境的流行病”。此外,信息过载导致决策者高度依赖专家和顾问充当各种缓冲和过滤器 (Ezzamel et al., 2004),进一步模糊了问责制的概念。正如我们在审查智能代理程序的能力时所强调的那样,有理由怀疑这种模糊性和问责制差距有可能在技术“破坏”中变得越来越大。

智能代理程序

智能代理程序是当今人工智能的一项关键技术(富兰克林,2014)。正如 Russell 和 Norvig (2016: 46) 在该领域的开创性教科书中,“[AI] 的工作是设计实现代理功能的代理程序”。智能代理程序的根源可以追溯到 1990 年代对认知体现人工智能的兴趣 (Varela 等人,1991)。这些程序是算法系统,它们试图在严重的资源限制下执行“最佳”操作过程 (Russell and Wefald, 1991)。
根据阿隆索 (2014) ,要获得智能代理的资格,计算机程序需要具备三个品质。首先,他们需要自主,以便他们能够做出独立的决定。他们需要使他们能够充当代理的品质,通常是通过能够独立感知、分析和响应环境。其次,他们需要具有适应性,因为他们必须能够将独立的观察转化为经验,并从分配给他们的环境中学习。这意味着这些程序不会仅根据在创建代码时编程到它们中的预先存在的信息来做出决定。正是这种适应性是智能代理程序自主开发能力的来源,通常是通过试错探索。三、那么,智能代理程序必须是社交的,以便他们能够识别、合作和与其他非人类和人类代理(Bader 和 Kaiser,2019)。社会性使智能体程序在随机和复杂的环境中活跃时,可以合理有效地追求其目标。
智能体程序正变得越来越普遍。它们是现代人工智能的决策组成部分,通常与机器学习、自然语言处理或人工智能驱动的机器人等其他关键人工智能技术一起发挥作用。亚马逊向您推荐的书是由智能代理推荐的,越来越多的在线银行为您提供购买新车的贷款交易。目前正在开发的自动驾驶汽车在由其他自动驾驶汽车和人类驾驶员混合的道路上巡航,方向盘后面有一个智能代理 - 备受争议的自主武器系统也是如此(Bloomfield and Vurdubakis, 2015 )。
对我们来说,下一个要问的问题是我们如何理解智能代理程序对当代组织和组织的承诺和吸引力?

承诺

据著名科幻作家Clarke (2013), '任何足够先进的技术都与魔法无异'。人工智能一直与这种“魔法”概念有着微妙的关系。它的承诺经常——通常是在以某种形式的失败告终的炒作周期中——被宣传为具有根本性的破坏性。作为外行,我们对它感到敬畏,在面对它的破坏性潜力时,我们常常会奇怪地解除武装和温顺。
我们中的许多人可能会将人工智能视为一种技术“魔法”形式.想象一下智能代理程序的承诺:他们不会错过任何一个细节,他们永远不会忘记,而且他们时刻保持警惕。他们(据说)也不参与小游戏,也不歧视。他们在理性和效率上显得更优越。他们没有任何经典意义上的“代理”,因此没有代理-委托人问题。这些程序按照他们被告知的去做。只有他们每次都做得更好,并且在处理信息方面多次超越人类的能力。从这些技术中获得的卓越性能或竞争优势的承诺往往很容易被决策者推销。
因此,智能代理程序和算法以复杂的方式成为人们渴望的对象。社会上的权力精英。人工智能提供竞争优势的方式允许重新配置权力关系。在这一切之下,存在着组织和组织没有人类顾虑和缺点的激进承诺。实际上,这创造了将智能代理程序视为完美理性代理的前提。然而,这在很大程度上是一种与控制这些代码的人掌握这些代码相关的体验状态。这种对理性的承诺很容易将任何批评定位为浪漫的、过时的和非理性的。
我们应该抵制这种对批评的拒绝,因为它与那些有经验的人的经历形成鲜明对比。屈从或受智能代理程序控制,对他们来说,这种体验可能是非人性化和极权主义的。如前所述,当我们今天体验人工智能的话语时,有一种不可避免的感觉。我们在这里提出的是,这种必然性在很大程度上归结于这样一个事实,即局外人——其中包括大多数上述权力精英——为开发人工智能而努力撬开“人工智能黑匣子”。可以说,这种魔力可以抵抗严格的审查。这使得智能代理程序等 AI 技术即使对于那些投资或通过它们进行组织的人来说也难以理解。
因此,很难评估 AI 技术会带来哪些挑战和问题要与之相关联。我们感兴趣的——我们建议,更普遍的关键组织和管理研究社区——是这些计划为组织和组织中的问责制带来的潜在问题。模糊性和距离问题在这里至关重要。 Huber 和 Munro (2014)鲍曼 (1991) 关于不道德行为承诺的想法随着社会距离的增加而变得更加容易。 Zyglidopoulos Fleming (2008) 也强调道德距离,即行为与其道德后果之间的距离。这些道德和伦理上的距离在一般的在线空间中得到了强调,特别是在与人工智能相关的领域。我们忽略了具体行为如何导致具体后果。
我们建议在三个问责领域特别成问题并需要严格审查。每个问题都与上述智能代理程序的三个持久特性直接相关。首先,我们必须探索智能代理如何(不)在与人类的互动中承担责任。其次,我们必须探索他们如何(不)审查他们所学到的东西。第三,我们必须探索智能代理背后的权力关系,以重新关注智能代理操作背后的人类目标设定和假设。

问责制的三个问题

智能代理程序的核心品质是自主性、适应性和社会性(阿隆索,2014)。从问责制的角度来看,每个项目都包含使这些计划存在问题的特定方面。这些与智能代理如何运作、它如何学习以及它寻求实现的目标有关。归根结底,问责制始终是人类的负担。因此,人类应该始终对智能代理程序的行为负责。但是,是否可以告知这种问责制是值得怀疑的——或者这种责任最终是否更像是替罪羊。

互动的自主性和速度智能代理和人类之间的区别

第一个责任问题源于人类和计算机程序根本不同的基本观察(Bader 和 Kaiser,2019)。当人们认识到除了差异之外,智能代理和人类都充当组织中的决策者时,这一微不足道的观察成为核心(Bader and Kaiser, 2019; 朗格等人,2019Newell 和 Marabelli,2015 年)。人们甚至可以争辩说,当今组织中的权力是通过算法行使的(Pasquale,2015)。例如,赫尔宾等人。 (2017) 表明算法已经进行了惊人的 70% 的全球金融交易。正如 约翰逊等人。 (2013),这种金融市场交易超出了人类的互动能力。在日常基础上,这是由于智能代理在速度、记忆力和感官准确性方面的内在能力。 “人类时钟”最多只能在几秒钟内做出反应,而计算机的时钟速度要快一个数量级。人类的身心处于不同的警戒状态,但智能体始终保持 100% 的警觉。虽然一个人有少量项目的工作记忆,但智能代理仅受其硬件大小的限制。它时刻保持警觉,时刻保持警惕,并在微秒内做出反应。在非常极端的情况下,未来市场会变得不稳定,战争会在心跳。
因此,问责制问题是这样的:人类决策者如何对发生得更快且输入数量多于生理理解和反应的决策负责至?这是允许智能代理程序自主的真正结果,即允许它们独立行动而无需直接监督。 Beverungen 和 Lange (2018) 认为当前的高频算法仍然太“愚蠢”而不能被认为是完全自主的。然而,对于每一代新一代硬件以及驱动智能代理程序的算法的每一次改进,人类与人工智能技术之间的基本生理鸿沟都会越来越大。

适应性和理解智能代理(可以)学习什么

也许智能代理程序最类似代理的特征在于它们的适应能力。这意味着,程序在世界中行动时,会不断地监控它的环境,以确定它的操作是否成功。基于这些,该程序会积累有关哪些有效,哪些无效的信息。如果它发现某个特定的动作是成功的,或者某个动作对实现其目标没有帮助,程序将学会在未来选择或避免这样的动作。在软件术语中,这称为建立感知序列。可以将其视为智能代理程序的生命历程。感知序列的大小仅受程序可以访问的感官输入和分配的内存量的限制。
负责人的问题智能代理是我们无法准确知道智能代理学到了什么。机器学习技术面临的挑战在于,作为局外人,我们最多只能知道智能代理的“黑匣子”中的内容和出来的内容。但是,我们不能确定为什么出来的东西会出来。在“大数据”的世界中,数据的透明性通常是毫无意义的,因为分析的数据量之大使得人类无法对其进行处理(Pasquale,2015)。数据模式本身包含有问题的方面,例如同质性倾向,例如,在基于特定假设(关于人群和世界)创建的算法中,其目标函数随着智能代理程序的适应和学习而无休止地自我复制优化其性能(Lambrecht 和 Tucker,2019 年)。
因此,没有什么可以保证统计上内部一致的模型与外部现实产生共鸣(Chon,2016 年)。这意味着在更复杂的情况下,智能代理的感知序列构成了代理程序实践的基础——甚至可以说是世界观——虽然这不是透明的,但它使代理具有自适应自主性。这在实践中意味着智能代理程序不会(重新)编写自己的目标。然而,他们可以重写实现上述目标的路线图——否则他们将无法适应。特别是,当涉及的决策在很大程度上是不可逆转的,例如在金融交易或使用致命武力时,这就引出了一个由来已久的问题,即目的是否合理。
在某种程度上,这可能不像听起来那么引人注目,因为在许多方面这同样适用于人类决策者。有大量关于影响人类决策的认知偏差的文献。然而,问责制的概念包括,尽管存在这种偏见,决策者最终还是应该负责,而智能代理程序则不是。因此,责任问题是这样的:人类决策者如何对智能代理程序做出的决策负责智能代理程序如何从一个实例到另一个实例?

社会性和智能代理追求的目标

最后,在其目的范围内,智能代理有能力与外部世界。自动驾驶汽车在有其他汽车的道路上行驶,无论是自动驾驶汽车还是非自动驾驶汽车。交易算法交换信息并在金融市场上进行交易。 巴黎(2015) 认为,这个智能代理世界已成为与金融市场的传统人类现实并存的第二天性。总的来说,加洛韦(2012: 93) 观察到“今天的权力点存在于网络、计算机、算法、信息和数据中”。因此,智能代理中内置了一种强大的幻觉,即根据其能力,它是一个社会和独立的实体。汽车和股票市场似乎都因为智能代理程序做了(或没有)做了什么而崩溃。
然而,尽管智能代理程序具有自主性和适应性,但它​​并没有它寻求实现或最大化的任何主观目的或边际效用。相反,它总是只进行优化——而且这样做时没有任何人类对其行为后果的深思熟虑。这意味着驱动智能代理的代码的道德存在于所谓的目标函数中。目标函数总是由运行智能代理程序的人预先设定和控制的。因此,由智能代理驱动的汽车和股票市场可能会崩溃,但仅限于追求其人类主人的目标。这也意味着责任问题不能分配给智能代理,而是分配给那些控制目标功能内容的人,目标功能本身在没有人工干预的情况下仍然是静态的。智能代理可以优化路线图,但他们不会选择最终目的地。
智能代理的社会性具有问题的含义。正如 Parisi (2015: 136),再次谈到金融市场,“很难排除思维自动化已经超过表征,而是揭示计算本身已经变得动态的可能性”。因此,交互自主智能代理程序的复杂网络——这种“第二天性”——以一种激进的方式具有影响社会的新兴特性。交互智能代理程序的网络可以创建系统的紧急结果,这些结果不容易从单一目标函数中破译。例如,同质性及其结果在这些网络中可能成倍增加(兰布雷希特和塔克,2019)。
Annanny 和 Crawford (2018) 维护该模型用于理解和让系统承担责任长期以来一直依赖于透明的理想和逻辑。这些作者批判性地质疑计算系统中的透明度理想,并认为透明度是理解和管理算法的不充分前提。 Pasquale (2015) 指出,算法行为的内在复杂性使透明度的概念变得过时,因为操作的底层复杂性使得即使完全透明,系统仍然难以理解。他指出,我们应该要求的是可理解性:“算法不能免于歧视的根本问题。 [。 . .] 它们是由人类编程的,人类的价值观被嵌入到他们的软件中' (Pasquale,2015:38)。在实践中,这意味着任何不能以令人满意的方式向公众解释其操作的智能代理不应该被允许在需要社会性的条件下存在。
问责制问题因此,包含在智能代理程序的社会性中是双重的。首先,如果此类程序的目标功能不(透明和)理解,我们作为社会成员如何判断智能代理行为的后果兄弟姐妹?其次,紧急系统级智能代理行为结果的问责制在哪里?

作为意识形态的合理化不问责

< div role="paragraph">我们认为,我们面对智能代理和问责制的难题由两部分组成。一方面,我们正在处理一种看似激进的技术,它在意识形态上承诺会扰乱市场和社会。另一方面,这种考试技术对于一般问责问题来说是相当有问题的,这可以说是晚期现代自由社会的核心维度。智能代理的意识形态承诺与其相关的责任问题交织在一起,给我们留下了怎样的印象?我们通过概念化我们称之为“合理化不负责任”的状态或条件来回答这个问题。它部分源于前面概述的智能代理问责制的复合挑战,也源于将智能代理网络和群体定位为理想的社会未来的意识形态驱动因素。
在发展这个论点,我们是站在巨人的肩膀上。我们不能声称对马克斯·韦伯、法兰克福批判理论学派(以及马克斯·霍克海默、西奥多·阿多诺、埃里希·弗洛姆和赫伯特·马尔库塞等人)和齐格蒙特·鲍曼的大量多样的工作进行公正评价。然而,我们在这里建立在他们工作中选择的见解之上。我们从 Weber (2003/1905) 以及他关于理性和合理化的概念化是现代性和资本主义在世界范围内崛起的标志。1 特别是,我们受到批评特定形式的理性以及如何通过意识形态统治在(以及今天,跨越)社会中的作用.此外,法兰克福批判理论学派的各种化身在这里至关重要,特别是在帮助理解技术发展和今天的智能代理程序使流行或大众(媒体)文化领域成为可能方面。2
启蒙辩证法中,Horkheimer 和 Adorno (1969/1944) 探索了统治和技术理性的融合,并强调了知识和技术作为剥削(劳动)手段的作用,在意识形态上接地。他们认为对人类行为的技术统治是对启蒙运动鼓舞人心的目的的否定。那么,人们可能认为他们是“自由的”,但他们只能自由选择一种意识形态,这种意识形态总是反映一种经济和技术胁迫的形式。他们的自由是“选择始终不变的东西的自由”。智能代理程序的责任问题也以同样的方式出现。我们被笼罩在不可避免的面纱中,盲目地被迫相信技术及其“合理性”。这是为了回显 Fromm (1941/1994;另见 Deslandes, 2018),从自由中逃离到看似令人欣慰的算法概念折叠中,我们逐渐将希望寄托在本体安全性上。改编成一个模因,就好像我们的精英们现在渴望抓住咖啡杯,上面写着“保持冷静并相信算法”。
在过去几十年的许多哲学和社会学思想家中, Zygmunt Bauman 的想法与我们的论点产生了共鸣。对于鲍曼来说,合理化是现代性及其秩序化努力的体现。3< /a> 对比 霍克海默和阿多诺 (1969/1944) 对同一性的关注,然而,Bauman (1992) 提醒我们注意一个差异化的世界普遍存在于已成为消费资本主义的事物中。他帮助我们理解去中心化的压迫者之间的关系,一方面是拉着“看不见的绳子”,另一方面是他们的“快乐的受害者”以偶然的方式被剥削。后者似乎准备将他们的“自由”交给消费资本主义去中心化的权力知识。全球系统和结构是遥不可及的,我们的生活是非结构化和流动的。
智能代理程序突出了这种鸿沟,使我们在能够覆盖的权力精英手中​​变得可塑性强他们的足迹与技术有关——或者更准确地说,是对不断发展的技术及其破坏性影响的承诺。在 Liquid Modernity Bauman (2000) 解决了这种晚期现代性激进状态的深刻不确定性;它对个人的负担、不断的变化、矛盾和混乱。然而,除了避税天堂的流动性之外,达沃斯文化和全球放松管制正在等待一种新的流动性形式,它将责任和问责制分解为无穷无尽的数字海洋。
具体来说,我们认为今天合理化的不负责任是一种意识形态状态,在这种状态下,权力和控制是通过算法施加的。意识形态的概念是有争议的,它在不同的研究传统中以不同的方式进行研究 (Seeck 等人,2020)。我们将当前语境中的意识形态视为不言而喻的真理的产物。我们提出人工智能作为一种意识形态发挥作用,因为它制造了社会现实的规范性观念(l)并将其转化为不言自明的话语特征(Fairclough, 1989) 通过它我们(不)能够理解世界。在提出这一点时,我们借鉴了批判理论的精神,并对意识形态进行了批判,因为它有助于使特定的合理化和剥削合法化、规范化或自然化。因此,意识形态是(有抱负的)精英们用来解释他们现在和未来的统治作为规范的话语。
人工智能建立在并吸引了一种特定的话语形式,它构成了它作为现实。通过合法化以及通过“魔法”(参见 Clarke, 2013) 我们被引导相信它的必然性。虽然合法性建立在权威且看似理性的论据之上,但“魔法”的运作方式是隐藏其潜在的假设且不受质疑。问责制再次揭示了其“变色龙般”的本质(Sinclair, 1995),并且通过重复,随着时间的推移,我们中越来越多的人被社会化为意识形态。与此同时,技术和金融精英在社会中巩固了他们的主导地位和思想(l)。权力机制仍然集中,控制权集中在有限的行动者群体手中——权力精英——具有共同的技术-金融世界观(参见 赖特米尔斯,1956)。
今天的合理化不负责任是一种意识形态状态,在这种状态下,权力和控制通过智能代理程序以算法方式执行,这些程序独立和集体行动,以实现作为这种权力对象的单个人类、整个组织或整个社会未知的目标。从技术上讲,合理化不负责任的状态是由与智能代理相关的“魔法”驱动的,这是上面讨论的代理算法结构的三个共存维度的涌现属性。这种纠缠的共存是与智能代理程序相关的“黑匣子”效应的来源。在合理化不负责任的情况下,智能代理程序因其在自主性、适应性和基于目标的社会性方面的技术能力而被视为权力和控制的优越渠道。这种优势的部分原因在于,在越来越多的情况下,智能代理比组织中的决策者更喜欢人类工作(弗莱明,2019 )。
人工智能是一种意识形态,可以用来解释和控制我们当前的后全球化和后放松管制世界的方向,它使新形式的权力和控制。在某种程度上,它用人工智能衍生的技术话语取代了新自由主义政治话语。因此,合理化的不负责任是当今精英能够解释不同类型的权力关系及其权威的状态。
首先,这是通过智能代理直接行使权力的问题程式。这就是我们通过信用评级、交易算法和自主武器系统等各种应用程序所见证的。其次,这是通过以替代威胁来约束公民和社会来强制行使权力的问题。这就是我们所看到的,例如,有关未来劳动力市场趋势和中断的报告被用来控制工资结构、教育计划的内容或公共投资计划。第三,这是一个乌托邦意义上的权力部署问题,通过维持一种解放技术的可能性,这种技术将通过创造一种优越的代理技术一劳永逸地让权力精英摆脱控制的负担。在这里,我们发现了从超人类主义到超级智能的各种流派。我们认为,这些都是精英为精英创造的信仰体系和乌托邦话语。
智能代理和算法的这一政治维度对于组织和管理研究中的批判性学术研究至关重要。从某种意义上说,合理化的不负责任是当代民粹主义光谱的另一端,通常是隐藏的。它是由(并为)全球精​​英创造的意识形态,他们一直在为一系列民粹主义运动失去空间,这些运动通常对金融、经济和文化资产以及人类的自由流动持敌对态度。通过将经济和社会解释为不可避免地走向技术颠覆的实体,这种合理化的不负责任状态为全球权力精英提供了一种合法性,可以将“平民”民粹主义与他们自己的“贵族”民粹主义相抗衡。用技术引发的解放性叙述。

结束语

在这篇 Connexions 文章中,我们认为人工智能不仅仅是一种技术。它是一种积极用于塑造我们这个时代的政治、经济和社会现实的话语。通常,话语与手头技术的实际能力只有一种错综复杂的关系。我们试图通过“合理化不负责任”的想法来理解这种情况及其含义,这是一种通过算法施加权力和控制的意识形态状态。有了这些想法,我们试图补充关键组织和管理研究及其他领域关于人工智能的新兴讨论 (Bader and Kaiser, 2019; 朗格等人,2019von Krogh, 2018) .我们认为,当今批判性学者的一个关键问题是探索人工智能(及其子组件技术)如何被用来使政策和组织形式合法化或非法化,并阐明它们对人和社区的约束作用。一个重要的前提是对所讨论的技术——智能代理——进行真正的审查。
我们通过提出一些对算法和智能代理进行批判性调查的问题来结束这篇文章。他们的目标是什么?他们的数据是什么?他们什么时候停下来?首先,目标通过要求我们仔细审查智能代理背后的人类假设和目标设定,将我们的注意力集中在人工智能的“行为”上。我们必须打击智能代理程序导致的责任模糊以及整体人工智能话语中不可避免的感觉。由于此类程序的目标功能不是(透明和)可理解的,我们必须对人工智能如何作为一种意识形态发挥作用,因为它将社会现实的规范性想法(l)制造为不言而喻的真理,以牺牲其他人为代价使一些人受益。
其次,审查数据是为了了解智能代理对世界的了解。虽然不可能逐项执行此操作(“大数据”太多了),但从主题上看程序应该学习哪些类型的数据会很有用从。再次,我们回到意识形态问题。由于全球系统和结构仍然超出大多数人的能力范围,因此海量数据和流动性数据有助于维持 AI 意识形态。通过确定谁能够理解这个世界,谁不能理解这个世界,权力精英能够用不断发展的技术及其“破坏性”影响的承诺来掩盖他们的踪迹。
第三,停车问题将我们带入安全机制的世界,并引发更多问题。程序——在许多方面都优于人类——什么时候会简单地关闭自己,以便进行人工评估?这意味着什么?对于所有这些问题,智能代理程序的伦理和道德考虑对于关键的组织和管理研究特别及时(鲍曼,1991; Huber and Munro, 2014; Zyglidopoulos 和 Fleming,2008 年)。虽然人工智能作为精英的意识形态引导我们远离提出伦理和道德问题,但批判性研究人员必须与其他参与者结盟,以便在自适应、自主和社会计算机程序无处不在的条件下将他们牢牢地留在社会议程中。

Funding

作者没有获得研究的经济支持,作者身份,和/或发表这篇文章。

ORCID iD

目前的中文版本由自动翻译产生