专栏名称: 网络空间治理
专注网络空间治理领域(包括但不限于法律、战略、技术、管理)的理论与实务。
目录
相关文章推荐
Foodaily每日食品  ·  配角掀桌,从默默无闻到霸占C位:卖疯了的坚果 ... ·  2 天前  
艾格吃饱了  ·  有时候觉得上班也挺好的。。。 ·  4 天前  
每天学点做饭技巧  ·  可媲美大牌的平价冲牙器,360度全方位清洁口 ... ·  4 天前  
51好读  ›  专栏  ›  网络空间治理

法律能否建立对人工智能的信任?|Regulation & Governance

网络空间治理  · 公众号  ·  · 2024-02-20 15:22

正文

来源:Sociology理论志

发布时间:2024-02-19


通过监管的信任:法律能否建立对人工智能的信任?

摘要

目前,政治和监管讨论经常提及“可信人工智能”这一术语。在欧洲,确保可信人工智能的努力始于欧盟委员会的人工智能高级别专家组(AI HLEG)《关于可信人工智能的伦理准则(the High-Level Expert Group Ethics Guidelines for Trustworthy AI)》,现已融入欧盟人工智能法的监管讨论中。基于合适的监管策略能够塑造对人工智能信任,全球的政策制定者积极推动各种倡议,如美国《关于安全、有保障和可信的人工智能的行政命令(the US Executive Order on Safe, Secure, and Trustworthy AI)》,或者《布莱奇利人工智能宣言》(the Bletchley Declaration on AI)等。为了分析这一前提是否可靠,本文建议考虑关于自动化信任的更多文献。在此基础上,本文构建了一个框架,以分析影响人工智能信任和自动化信任的16个因素。本文分析了这些因素之间的相互作用,并逐个单独考察以确定监管对每个因素可能产生的影响。因此, 本文为决策者和法学学者提供了评估不同的监管策略的基础,特别是区分具有不同影响程度的监管策略,如更有可能影响对人工智能信任的策略(例如规范AI可以履行的任务类型)和那些其对信任影响较有限的策略(例如提高认识疏忽和自动化偏见的措施) 。本文的分析强调了细致的监管在塑造人与自动化工具关系中的关键作用,并为决策者提供了一种针对性地简化未来的人工智能治理监管工作的方法。


作者简介:

Aurelia Tamò-Larrieux, 荷兰马斯特里赫特大学法律与技术实验室

Clement Guitton, 瑞士圣加仑大学计算机科学研究所

Simon Mayer, 瑞士圣加仑大学计算机科学研究所

Christoph Lutz, BI挪威商学院


文献来源:

Tamò-Larrieux, A., Guitton, C., Mayer, S. and Lutz, C. (2023), Regulating for trust: Can law establish trust in artificial intelligence?. Regulation & Governance.


本文第一作者:Aurelia Tamò-Larrieux


1 简介

2021年5月,欧盟执行委员会副主席 Margrethe Vestager 在演讲中提出了一个问题:“欧洲人是否信任技术?”在指出成员国内存在较大差异但整体信任水平较低后,她提出了四种增加信任的解决方案:教育用户以及推行三项法规,即数字市场法、公共服务法和数字权利法(Vestager,2021)。她在这方面并非孤立,许多其他欧盟文件都提出了这一理念。例如,在2021年10月,欧洲委员会呼吁调整责任法规以适应人工智能的文件也表达了相似立场。
驱使人们注意对自动化工具,尤其是对人工智能信任的原因有很多:人工智能工具的迅速发展和技术的具体应用(例如,社交机器人)改变了我们与技术的关系。如今,技术工具越来越被看作是“交互伙伴”或“对话者”,我们以更亲密和社交的方式与技术互动(Guzman & Lewis, 2020; NIST, 2021)。这种感知和互动的转变还引发了学术界对自动化工具和人工智能信任的讨论(Glikson & Woolley, 2020; Kaur et al., 2022; Yang & Wibowo, 2022),以及政治讨论中的讨论(HLEG, 2019; 见第4节)。

决策者担心,如果没有适当的规范,社会将过于不信任人工智能,无法获取其利益,或者相反,社会可能过于信任人工智能(尤其是出现错误或人工智能幻觉的情况下)。简而言之,这些关切围绕着不信任(distrust)和光谱另一端的过度信任(overtrust)展开。 不信任 指的并不是缺乏信任,而是指对互动会产生负面后果的期望(Hill & O'Hara, 2006), 过度信任 描述的则是一个人误解或误判了某种互动的不确定性和脆弱性,错误地信任了受信任的主体(Aroyo et al., 2021)。考虑到这些因素,人们关注通过监管“达到”信任也不足为奇了,但是本文必须质疑监管能够直接建立信任的假设。为了回答监管如何促进对人工智能的信任的问题,本文总结了包括自动化信任的研究研究中影响信任的因素。
关于一般信任以及自动化(包括人工智能)信任,已经产生了大量研究,存在不同的概念化和实证模型。文献中出现了许多不同的信任定义(Bodó,2021;Botsman,2017;Hardin,2002;Hult,2018;Keymolen,2016;Lee&See,2004;Möllering,2006;Rousseau et al.,1998;Sztompka,1999)。首先,信任涉及至少两个主体,通常还涉及一个主体之一必须履行的行动。其次,该行动所在的关系和情形特点为,受益一方的主体要承受不确定性和脆弱性。再次,信任的主体有信心相信其他主体将按照信任主体的目标行事。因此, 信任归结为信任主体对受信任主体将按照预定方式行事的期望或态度 (即认知概念,如Baier,1986;Hardin,2002)。

本文通过总结文献中提出的16个命题来概念化这种复杂性,并描述影响信任的因素。在这些命题中,本文详细阐述了在信任和自动化领域的研究发现。基于这个框架,本文探讨了法律或更其他规范如何影响所描述的因素并为信任提供条件。
文章结构如下:第2节讨论了信任和监管的相互作用。监管的角色改变了:它需要创造一个框架,使互动的不确定性和脆弱性对社会来说能够控制。在此基础上,第3节详细阐述了这些因素对信任的影响,并根据人-自动化工具信任(human-automation trust)和人际信任领域的丰富文献,构建了16个命题的信任模型。本文还讨论了监管如何以及在多大程度上能够塑造这些因素,分析了这些命题对人-自动化工具交互信任关系的影响程度。第4节将本文的模型应用于欧盟最近通过的《人工智能法案》(the AI Act),并突显了该法案条款与第3节中详述的命题的对应关系。在第5节中,本文讨论了本文的主要发现并总结了一些关键启示。

2 信任和监管的相互作用
在分析法律与信任之间的相互作用时,一个关键问题是:监管可以在多大程度上影响信任?有趣的是,缺乏分析法律与信任之间相互作用或者分析法律如何利用信任并最大限度地减少不信任的(法律)研究。(参见e.g., Blair & Stout, 2000; Cross, 2004; Hill & O'Hara, 2006; Hult, 2018) 尽管如此,现有文献仍提供了有关相关问题的见解。例如,Hill and O'Hara (2006, p. 1718)提出:“法律规则、案例和执法努力在多大程度上增强或减少了人际关系中的信任?”以及两个子问题:一个涉及共存,另一个涉及优化。

2.1 法律与信任:共存
首先,必须了解和衡量法律对信任的影响程度。这里的核心问题是:信任和法律在多大程度上可以共存?法律文献已经从不同的角度探讨了这个问题。一些研究关注法律减少不确定性所带来的影响(Hill & O'Hara,2006)。另一些分析了法律是否削弱了对信任的需求,并得出结论认为法律可以最小化过度信任所产生的负面后果(Cross,2004)。还有一组研究人员对比了信任对合作的好处与建立复杂法律协议的弊端(Blair & Stout,2000)。
信任悖论的前提是,如果建立保证结构以促进信任,那么信任的需求就会相应减少(Cheshire,2011)。建立的保证越多,不确定性就越少,对信任的需求就越降低。然而,在文献中,尚不清楚仅减少不确定性在多大程度上会导致信任悖论,尤其是:是否必须完全确定结果,还是仅有建立补救机制以达到特定结果的能力就足够(尽管使用/执行这些机制的成本可能很高)?
在法律文献中,本文发现关于信任和法律共存的不同观点。Ribstein (2001) 认为,法律取代了信任,他认为法律既不帮助也不支持信任的发展,相反,“强制的阴影”完全阻碍了这种信任的发展(Ribstein,2001,p. 564)。然而, Ribstein(2001)的观点似乎是短视的,因为它假设通过法律,不确定性被减少到损害发生的概率不仅可以计算,而且可以合理地考虑。前者在个人、机构和自动化系统之间的复杂相互作用中不太可能发生,而后者则假设理性主体普遍存在,而根据行为经济学(Thaler,2000),这不是一个现实的假设。
相反,监管可以促进有助于信任的。Hill 和 O'Hara (2006) 认为,(信任的)一方具有他们愿意接受的最大程度的不确定性和脆弱性。如果跨过这个门槛,“信任的飞跃”(见第 3 节)就不会发生。然而,如果法律能够将不确定性和脆弱性降低到信任方可以接受的水平,信任关系仍然可以发生,从而影响整体信任关系(Hill&O'Hara,2006)。
本文同意 Hill 和 O'Hara (2006) 的观点,即监管总体会影响相互作用的不确定性。然而,它不太可能将其完全降低到完全消除“信任的飞跃”的需要的水平(Möllering,2006)。
2.2 法律与信任:优化
基于法律与信任共存的假设,我们面临着一个规范性问题,即法律在多大程度上应该影响信任关系。当确有必要时,最小化不信任或推动“信仰的飞跃”似乎是合理的(另见Starke & Ienca,2022)。因此,法律的角色便是定义和理解优化信任关系的含义。本文看到,在信任中法律的作用问题需要进行细致的分析,并且在很大程度上取决于监管机构的背景和潜在动机。
例如,如果动机是为了保护未受教育的消费者免受 “虚假”人工智能服务的侵害,那么可以完全禁止此类服务,但这也会引发对此类服务提供商的不信任。然而,过度关注约束或义务是狭隘的,因为监管可以帮助产生公平竞争所需的相关信息(Gasser,2016)。
正如Hill和O'Hara(2006)在一篇关键文章中所解释的(p. 1758):“法律还可以帮助产生与信任相关的信息。政府和私人实体的审计和监控有助于为他人产生信任相关的信息。但促进信任有时可能需要限制对信息的访问。例如,通过监控和执行公司隐私政策以及实施信息使用规则,可以保护在线交易各方的隐私。”Hult(2018)也承认信息需求的复杂作用,因为过多的信息可能导致信息过载,而不一定会增加对信息提供者的信任。
对于在不同背景下优化信任关系意味着什么的问题,也已经从更宏观的角度进行了探讨。这个角度展现了法律和信任相互作用中的不同立场。Hall(2002)区分了基于假设信任的预设立场(predicated stance),将信任视为积极事物的支持立场(supportive stance),以及将不信任视为积极事物的怀疑立场(skeptical stance)。例如,在侵权法中,假设信任存在,但由于医疗事故,必须恢复信任(预设立场)。在其他情况下,信任被视为需要积极支持的事物(支持立场),例如支持公平程序,或者需要积极怀疑的事物(怀疑立场),因为信任有时可能导致长期的负面后果(例如环境监管)。
这种怀疑的立场与一个经常被忽视的方面相关:法律可以帮助当事人传递信任的限度,或者换句话说,指示委托人应该对受托人给予多少信任。
监管工具的这些特征使人们产生了这样的假设:监管可以促进对人工智能主体的信任(Hult,2018)。Hill和O'Hara(2006)甚至主张监管应该致力于优化信任,即通过监管减少信任不足和过度信任的情况,以缓解在社会和个人层面上出现的次优情况。然而,另一种观点在某种程度上相当实用:将法律视为实现信任的工具。
2.3 法律和人工智能:建立和支持信任的外部因素
文献综述表明,通过设定外部因素,监管可以降低互动的不确定性,推动受信任的主体按照信任方的最大利益行事(例如,通过实施信托责任或惩罚损害信任方的行为)。这些发现也可以应用于人工智能。首先,正如政策制定的讨论中所阐述的(例如,HLEG,2019),政策制定者的目标是建立一个激励框架,促进可信赖的人工智能主体的发展,即通过监管外在激励,使主体有动力维护对其的信任,并根据信任方的利益行事(参见Hardin,2002)。因此,监管通过将交互的不确定性降低到可接受的程度,从而影响人类与人工智能之间的互动。在人机交互的背景下,优化信任关系至关重要,因为对人工智能完全不信任、不充分利用其潜力、过度信任人工智能,都会导致不利于社会的局面。因此,监管可作为“建立和支持可信度”的机制,进而成为“创建信任的最佳工具”(Hardin,2002,p. 30)。然而,监管永远无法完全掌握互动,因此几乎所有互动中都将存在一定的不确定性和脆弱性(参见第2.1节)。这也是监管与信任相互作用中需要关注的问题。为了理解监管如何优化人与机器之间的信任关系,本文首先需要了解影响信任关系的因素,然后了解监管如何影响这些因素(第3.2节)。

3 自动化信任的复杂性

3.1 信任的条件
信任涉及至少两个主体之间关于特定行动或不行动的关系(即所谓的三方关系:Hardin,2002)。正如“主体”一词所示,信任的发展需要一定程度的行动或不行动的自由(Keymolen,2016)。这种行动或不行动也可以更广义地理解为第一个主体信任第二个主体负责的活动领域,这可能与特定情境中特定主体的社会角色相关联(Meyerson et al.,1996)。这些角色与制度安排相关,提供正式结构并使人们能够信任未知的他人(Bodó,2021;Zucker,1986)。制度化信任,或称为系统信任,指的是与抽象系统之间的更广泛信任关系,是政治科学领域的一个研究课题(Fukuyama,1996;Sztompka,1999)。就像人与人之间的信任一样,信任系统或机构也需要一个学习过程(Keymolen,2016)。
需要信任的情况中,所需的特定的行为或不作为存在不确定性,信任方则具有脆弱性。这就是为什么需要“信任的飞跃”(Möllering, 2006, p. 105, 110),因为这使得信任方能够克服不确定的立场,并接受由此产生的或隐或显的伤害(漏洞)(Deutsch, 1958)。然而,不确定性也应该被理解为一个范围,为了建立信任关系,我们需要一定程度的不确定性,而不是可预测性。脆弱性则表明,对于信任方来说,某些有意义的事情面临危险(Mayer et al., 1995; Rousseau et al., 1998),并且信任方接受处于一种脆弱状态(Keymolen, 2016)。在信任关系中,这种脆弱性是被接受的(Rousseau et al., 1998),这意味着信任方不仅表现出“脆弱的意愿”,而且还付诸实践(Mayer et al., 1995, p. 724)。
最后,信任导致对被信任方的自信期望(或信仰)。许多作者描述了这种安全、自信地期望交互结果发生的情况,Botsman (2017) 相应地将信任定义为“与未知事物的自信关系”(p. 20)。
3.2 信任关系的影响因素
3.2.1 分析信任与监管相互作用的建议
以下命题的框架和讨论是由具有法律、政治学、计算机科学和社会学专业知识的多学科团队迭代过程的结果。本文分析和讨论了广泛的文献,结合实例,不断整合不同的学科观点。尽管这篇文章是概念性的,但本文受到扎根理论(Strauss & Corbin,1994)的指导,特别是因为本文的方法是归纳法,并产生了可以在未来研究中检验的假设(即命题)的描述。
基于此,本文首先根据有关信任和三部分关系的文献综述(第3.1节)将影响信任的因素归纳为三个方面:属于信任方(人类)范围的,属于被信任方(如人工智能主体)范围的,以及属于受信任行为范围的。然后,本文将与三部分关系发生的环境有关的所有因素添加到这个构造中(见图 1)。在下文中,将这些因素称为命题:尽管已有研究,但仍然需要通过这些因素来实证检验监管对信任的影响。本文用人机信任领域的文献来支持这些命题及其分类,并根据人机信任关系讨论的当代趋势,与人机信任特征的框架相拟合(Lewandowsky et al., 2000; Madhavan & Wiegmann, 2007;另请参阅讨论自动化信任测量的研究,例如Jian et al., 2000; Madsen & Gregor, 2000;Yagoda & Gillan, 2012)。
图1 命题(P)及其对人机信任关系的影响。
3.2.1.1 命题1:法律和制度框架影响信任关系
法律和制度框架只是法律的一部分。即使制定了法规和机构,也需要就如何执行法律做出政策决定(Gibbs,1985)。因此,监管会影响人类与自动化关系的结构。当维护商定规范的执行机制到位时,法律和制度环境所提供的(感知的)稳定性和可预测性,得到统一的处理方式(DiMaggio&Powell,1983)。这种机制会产生更负责任、更可预测的行为,鼓励“更开放、更信任的态度,因为它为信任者提供了针对可能损失的保险和针对信任被违背时的备用选择。” (Sztompka, 1999, p. 88)。因此,这导致了 Hill 和 O'Hara (2006) 所说的“信任的信任(trust-that-trust)”,即法律环境和社会规范激励减少互动的不确定性。
3.2.1.2 命题2:任务类型影响信任关系
在涉及纯机械技能的任务方面,人们同样信任人类和人工智能。然而,对于主要涉及人类技能的任务,人类主体被认为更公平,即使两种类型的主体做出的决策是相同的(Lee, 2018)。Glikson和Woolley(2020)在概述影响人工智能信任的因素时,也讨论了任务特征的作用:他们指出,对自动化系统的信任与分配的任务是否被认为属于系统的实际能力有关。对于功能和机械任务,机器通常比人类更受青睐(比人类更受信任),而对于社交和情感任务,情况恰恰相反,个人往往更喜欢(并信任)人类互动伙伴(Glikson & Woolley,2020; Im et al.,2023)。
3.2.1.3 命题3:自动化水平以及个人适应自动化水平的程度影响信任关系
自动化水平通常被理解为个人控制水平和干预自动化系统的可能性,会影响人类-自动化信任关系(Schaefer et al.,2016)。Glikson和Woolley(2020)在关于人工智能信任的评论文章中定义了“机器智能”,将系统的自动化、自主和自治水平描述为培养信任的重要因素。例如,在体现人工智能的背景下,“为了信任和接受机器人的行为,分配给机器人的任务应该与其实际能力匹配”(p.635)。此外,个人适应自动化水平(特别是施加控制)的能力会增加对整个系统的信任(Sanders et al.,2014)。
3.2.1.4 命题4:(被感受到)的人工智能主体能力影响信任关系
在人机信任文献中,核心系统属性包括性能和可靠性(Hancock et al., 2011; Madhavan & Wiegmann, 2007; Muir & Moray, 1996),其中涵盖了操作安全和数据安全等方面(Hengstler et al., 2016)。高度可靠的系统能够胜任执行特定任务,从而产生信任(Lewis et al., 2018; Schaefer et al., 2016)。特别是在自动驾驶汽车的背景下,可靠性、信任和依赖之间的关系得到了深入分析(参见Bliss&Acton,2003;Yamada&Kuchar,2006)。然而,由于“技术的不稳定性和环境以及体验的碎片化”,很难将感受的技术性能和可靠性的研究结果推广到其他情境(Bodó, 2021, p. 2681)。
关于(被感受到)能力的文献还着重关注自动化的错误行为及其对整体信任关系的影响。在错误发生时,人们特别关注信任修复。如预期的那样,研究表明,当发生错误时,整体信任度会下降(Lee & Moray,1992;Lee & See,2004;Muir & Moray,1996)。然而,许多因素会影响这种信任下降,例如个人属性(如自信)和关系属性(如性能可靠性)(Lee & Moray,1992)。此外,在较容易失败的任务上,信任度下降的程度会更大(Madhavan & Wiegmann,2007)。研究结果表明我们不仅更加关注自动化系统的错误,而且能够更长时间记住它们的错误(Dzindolet et al.,2002)。
3.2.1.5 命题 5:透明度和可理解性影响信任关系
有证据表明,透明度增强了对自动化系统的信任(Glass et al.,2008)和对系统的整体信心(例如,在推荐系统中:Pu & Chen,2007)。然而,这些结果可能在不同的环境中难以复制(尤其是在实际部署时;还请参阅Felzmann et al.,2019、2020,了解人工智能系统透明度与信任之间的关系)。可理解性不仅对于建立信任很重要,而且对于更好地理解错误发生的原因也很关键(Dzindolet et al.,2003),这可能能够加速信任的重新定位,而不是在系统中引起整体的不信任。
与透明度和可理解性的主题相关的是人工智能主体意图的不透明性。与大多数人际关系不同,技术本身并不能“感受到”信任被破坏的后果。因此,人机关系被描述为缺乏意图性(Lee & See,2004)。这种缺乏意图性也与更广泛的讨论相关,即在信任被破坏的情况下如何分配责任(Cheshire,2011),人们往往会迅速责怪技术出现错误,但对将积极的结果归因于人工主体则更为谨慎(Madhavan 和 Wiegmann,2007)。
3.2.1.6 命题6:权力动态影响信任关系
权力动态,包括人类主体和人工智能主体以及管理人工智能主体的实体之间的信息和权力不对称,会影响信任关系。一些学者认为,公司的权力及其根据自身利益进行的辩论本质上是不对称的,因为客户很难质疑公司的行为和动机(Van Dijcket al.,2018)。这反过来影响了用户对由这些公司制造的人工智能主体的信任(Nowotny,2021)。更具体地说,除了分配给主体的任务本身,权力信任动态在实证方面仍然没有得到充分研究。
3.2.1.7 命题7:人工智能主体的承诺影响信任关系
承诺包括善意、信托责任、注意义务和诚信的概念。善意描述了对信任方利益和福祉的关心和关切(Bodó,2021;Mayer  et al.,1995;Searle  et al.,2011)。因此,这导致被信任方将信任方的利益纳入考虑。诚信是指遵守道德、伦理和法律原则,这些原则为特定社区内既定的行为准则奠定了基础(Bodó,2021;Mayer  et al.,1995)。在人工智能文献中,大部分关注点都集中在对齐问题(the alignment problem)上(Christian,2020;Gabriel,2020),即研究人工智能主体的目标或价值是否与人类一致。 设计人工智能主体如何与人类目标和价值保持一致有多种方法,然而,人类的目标和价值通常不稳定、随情景而定,并且会随着时间的推移而变化。
3.2.1.8 命题8:意外行为影响信任关系
人工智能主体可能会产生意想不到的(但正确的)答案(Lyons et al., 2023)。由于缺乏可预测性以及信任的情感,当人工智能主体出现意外行为但并非错误行为时,我们会做出不同的反应(参见关于此问题的能力的命题 4)。尽管如此,即使是(正确的)意外行为也往往会通过信任修复策略得到缓解(Kox et al.,2021),例如解释为什么发生特定的意外行为(Lyons et al., 2023)。从这个意义上说,人工智能主体的意外行为被认为与不可靠行为类似。
3.2.1.9 命题9:设计影响信任关系
物理存在(Bainbridge et al., 2011)及在纯虚拟环境中人工智能主体的视觉外表,往往会增强对人工智能主体的信任(Glikson 和 Woolley,2020)。然而,重要的是,物理外观和形态应该与人工智能主体必须执行的功能保持一致,以满足个人对该主体能力期望的预期(Schaefer et al., 2016)。
3.2.1.10 命题10:社会文化背景影响信任关系
部署自动化的背景涵盖社会和文化层面(例如,社会角色及其所附带的期望的定义,某些行为的文化可接受性),以及社会普遍如何看待该技术。例如,在人工智能领域存在着大量的炒作和恐惧(Cave & Dihal,2019),将人工智能宣传为“魔法”的营销活动并不能帮助个人准确地形成对技术能力和局限的心理描绘(Knowles & Richards,2021,参考Elish & Boyd,2018)。这些叙事形成期望,并且当期望未能实现时会引起挫折感(Glass et al., 2008)。因此,对新技术的传播对其引发的社会反应产生重要影响,从而对新技术的扩散速度产生重要影响(Hengstler et al., 2016)。然而,沟通的效果是有限的,因为文化因素和差异也会影响对自动化的整体信任。
3.2.1.11 命题11:人工智能主体的自学习能力,包括定制和个性化行为的能力影响信任关系
尚未深入分析的一个重要方面是,当与随时间学习并根据其交互方调整行为的机器互动时,人与自动化的信任关系会发生什么(个性化交互)。事实上,较新的人工智能主体的学习能力可能不仅会挑战整体的信任建立:学习能力可能会影响用户对意外或甚至错误行为的容忍度(类似地,个人有时可能会“原谅”Alexa的错误,因为系统仍在学习),但这一命题仍有待检验。文献表明存在所谓的个性化悖论,即更大程度的个性化会提高服务的相关性,但同时也会增加个人的脆弱感,从而导致采用率下降(Aguirre et al., 2015)。
3.2.1.12 命题12:重复互动和熟悉程度影响信任关系
Rempel等人(1985)提出,“随着关系的进展,焦点不可避免地从涉及具体行为的评估转移到对伴侣所具备的品质和特征的评估”(p. 96)。尽管在人际互动中,这样的论点在直观上易于理解,但各种研究同样显示了通过反复互动产生的熟悉度对信任的影响(Glikson&Woolley,2020)。信任关系的演变 基于重复互动,这与熟悉度的主题相关(Yang & Wibowo,2022)。对人工智能体的熟悉度和之前的经验可能会以两种方式影响信任关系:积极的过去互动有助于建立信任,而消极的互动通常会降低对人工智能体的信任(Yang & Wibowo,2022)。
3.2.1.13 命题13:人口特征(年龄、性别、社会经济地位)影响信任关系
对年龄作为影响信任因素的研究相对有限,主要关注少数参与者,且通常专注于自动驾驶汽车领域(Donmez et al.,2006)。在这些领域的研究表明,年轻人和中年人不太可能信任自动化,而老年人更有可能信任自动化。然而,很难概括关于个人特征(例如年龄)对不同领域的影响结果(Schaefer et al.,2016)。具体而言,在与人工智能相关的情境中(而不是更一般的自动化情境),方向是相反的,年轻人更倾向于更强烈地信任这类技术(Gillath et al.,2021)。 就性别而言,在多项研究中,男性比女性更信任人工智能(Yang&Wibowo,2022)。总体而言,性别的影响比年龄和社会经济地位更为显著,而性别差异可通过社会化和隐私关切来解释(Shao et al.,2020)。
最后,大多数研究中的社会经济地位是通过受访者的教育水平来确定的,而教育水平与对人工智能的信任呈正相关。对此的解释是“高等教育为人们提供了更多的风险管理知识[……],这可能会减少他们对采用新技术风险的厌恶”(Yang&Wibowo,2022,p.14)。
3.2.1.14 命题14:疏忽和自动化偏见影响信任关系
另一个相关方面是疏忽的作用(Bagheri & Jamieson,2004;Parasuraman & Manzey,2010)。疏忽是指人类主体对人工智能主体的行为没有给予足够的关注,即使这样做是明智的(例如,不关注自动驾驶仪,Parasuraman & Manzey,2010)。然而,与其他方面一样,疏忽情绪的产生是由于多种因素,例如个人同时处理多项任务的情况(Molloy & Parasuraman,1996),或者由于对自动化的最初态度(Parasuraman & Manzey,2010,p. 389)。一个人对自动化系统的态度进一步受到自动化偏见的影响,即个人倾向于赋予自动化系统更大的重要性或正确性(Parasuraman&Manzey,2010)。影响自动化偏差的一个因素是人类和自动化系统之间的“责任扩散现象”(Parasuraman & Manzey,2010,p. 392)。因此,任务背景和决策负责人会影响整体的疏忽程度。
与自动化偏见和疏忽相关的是由于过度信任而 技术。过度信任意味着“操作者高估了辅助工具的实际可靠性”(Madhavan & Wiegmann,2007,p. 281)。过度信任相比疏忽更具有积极的含义,因为个人(故意)承担更多风险,信任系统会降低出现问题的风险(Itoh,2012)。过度信任已在机器人辅助工具(Gaudiello et al.,2016;Robinette et al.,2016;Salem et al.,2015)、外骨骼(Borenstein et al.,2018)、自动驾驶汽车(搭载驾驶机器人)(Kundinger et al.,2019)等领域进行了研究,并提出了解决过度信任问题的研究议程(Aroyo et al.,2021)。虽然过度信任可能是由于对自动化系统工作效果的误判(例如,降低事故风险),但它也可能源于对自动化系统实际能够实现什么的误解(Borenstein et al.,2018;Itoh,2012)。






请到「今天看啥」查看全文