专栏名称: 公共管理共同体
定期推送中国公共管理专业期刊文章,传播公共管理知识,分享公共事物的治理之道。
目录
相关文章推荐
肿瘤资讯  ·  2025 ... ·  3 天前  
医学影像沙龙  ·  足踝关节MRI扫描... ·  2 天前  
医学界智库  ·  顶尖三甲医院,开进经济百强县 ·  3 天前  
51好读  ›  专栏  ›  公共管理共同体

张乐 李森林:知识、理解与信任:个体对人工智能的信任机制|对话佳作189期

公共管理共同体  · 公众号  ·  · 2024-04-26 09:30

正文


编者按
公众的知识与其对科学技术的信任之间呈现何种样态呢?公众的各类知识是增进还是削弱其对人工智能的信任呢? 张乐 老师 、李森林博士生 2023年5月发表在《社会学评论》的 《知识、理解与信任: 个体对人工智能的信任机制》 一文对上述问题做出了建设性的回答。
本期对话佳作我们有幸邀请到张乐老师、李森林博士生作为访谈嘉宾,结合此篇论文写作中的所思所想,带我们共同思考人工智能发展中知识、理解和信任之间的关系,探求公众“因知而信”还是“因知而疑”的答案,重新认识“公众理解科学”研究范式的价值。

嘉宾介绍



张乐 ,山东大学政治学与公共管理学院教授,博士生导师,山东大学生活质量与公共政策研究中心执行主任,主要从事应急管理与风险治理、科学社会学等领域的教学及科研工作。

李森林 ,山东大学政治学与公共管理学院博士研究生,新加坡南洋理工大学联合培养博士生,生活质量与公共政策研究中心助理研究员,主要研究方向为民生保障、社会风险治理等。近年来以第一或通讯作者在《社会学评论》《科学学研究》《城市问题》等CSSCI来源期刊发表论文多篇,另有文章获《新华文摘》转载。

访谈实录


Q1: 请简要介绍,您发表于《社会学评论》的《知识、理解与信任:个体对人工智能的信任机制》一文,及其诞生契机?

这篇文章的写作,源于我们对人工智能快速发展所带来的一系列社会问题的关注。以生成式人工智能为代表的新一代人工智能(以下简称AI)的加速应用有力地推动着生产方式、生活方式和治理方式的深刻变革,但其带来的一些负面社会影响也日益显现,人们对其安全性、可靠性产生了诸多质疑,信任的缺失在一定程度上动摇了AI顺利落地的社会基础。然而,此类现象并非当今社会所独有,人工智能与历史上众多科学技术一样,面临着“公众理解科学”的信任难题。

“公众理解科学”(Public Understanding of Science,PUS)是科学社会学的经典议题,主要观点认为,公众科学素养的缺失或无知等与理解有关的状况会导致一系列信任危机,进而引起公众对科学技术不必要的怀疑与抵制,这无论对于科学事业还是社会发展都会产生不利影响。而普及科学技术知识、提高公众的科学素养则可以增强公众对科学事业的信任与支持。但已有的文献表 明, 知识素养与科技信任的关系远比看到的情况复杂得多 ,相关的学理解释也不一致。在AI 的研发与应用日新月异的当代中国,公众的知识素养及其理解与其对 A I 的信任之间又将呈现出何种样态就成为了一个值得探究的问题。

Q2: 知识与信任间复杂多变的关系是本研究的逻辑起点,本文提出“因知而信”与“因知而疑”两种状态,请问您认为造成两种差异性状态的因素有哪些?

同样是知识,但自然科学、工程技术知识与人文社会科学知识所带来的信任效应并不相同。所谓的“因知而信”与“因知而疑”这两种状态,主要是针对不同知识类型导致的差异化结果的判断。我们的研究发现, 知识的性质和内容是影响个体对人工智能信任水平的关键因素
一方面,在“因知而信”分析路径上,我们发现已发生的三次科技革命极大地改变了世界的面貌,也深刻地影响着人们关于科技的价值观念。科学尤其是自然科学与工程技术被塑造为价值中立、客观且内部逻辑严密的形象,俨然成了人类社会运转的必要基础。以数学和物理学为基础的自然科学在实践方面取得了巨大的成功,于是越来越多的人认为,自然科学知识的增长会带来物质财富和人类福祉的增长。这种观念被冠以“科学主义”之名,最终成为了人类社会的基本信仰。新兴的人工智能属于交叉学科,构成该学科领域的基础知识主要来自数学、计算机科学 、脑科学、信息通信等领域。于是,“因知而信”的逻辑链条也就清晰了:掌握一定程度的自然科学知识的人,其对科学的信任会很自然地迁移到人工智能这类脱胎于数学、物理学、计算机科学的新兴科技身上。更进一步讲,那些具备自然科学素养同时又掌握电子工程、通信技术、计算机软硬件技术与数据分析挖掘技术等方面知识的个体,会更加信任AI。换言之,在人工智能领域,不仅存在着“因知而信”的情况,也存在着“因懂而信”的情况。我们的研究证实了上述判断。
另一方面,在“因知而疑”的分析路径上,我们认为人类的知识体系并非只来自对自然界的探究和对发明创造的归纳提炼,对人类社会发展规律、人类历史责任及其未来命运、人类的精神世界和存在价值等主题的哲学思考、人文解读与社科研究获得的知识同样是人类知识的重要组成部分。人文社会科学知识的形成与特定时代科学技术的发展密切相关,此类知识的目标旨趣也与科学技术的社会影响后果不可分割。单纯从功能上看,甚至可以认为哲学、人文与社会科学知识的存在就是为了对包括科学技术“副作用”在内的一切反常状况进行“自觉反思和持续警惕”。“因知而疑”是人文主义的传统,更是其不变的使命。工业革命以前,人文知识始终保持着对科学技术的冷静思考与深刻批评,这类知识不断传播,形成学术流派,演变为社会思潮,与科学精神共同构成了现代社会的文化内核。对科技的发展保持谨慎的乐观与必要的警惕,从批判和反思中匡正科学技术的副作用,成为人文社会科学知识的重要功能性特征。于是,在人工智能技术的发展过程中,人们基于人文视角去评判人工智能的社会影响时,其视野中“映衬”的多是人工智能带来的就业替代风险、伦理风险、加剧社会不平等诸般现象,并对此表现出深深的人文忧虑,这显然与科学技术领域专家“拥抱新技术”的态度有所不同。上述判断是基于历史和逻辑的推论,成为我们研究假设的主要依据。

Q3:本研究将“理解”作为中介变量,将“个体对人工智能的信任水平”作为因变量。这两个变量具有比较强的主观性色彩,请问您如何实现变量操作化?在测量过程中,遇到过什么难题呢?又是如何解决的呢?

我们在变量操作化以及进行测量过程中,确实会遇到一些主观性带来的挑战,尤其是在处理“理解”和“个体对人工智能的信任水平”这两个变量时。
我们首先从纠正“对科学的理解”被操作为“科学素养调查”的偏误入手,尝试解决“理解”的测量困境。 我们发现,“以素养测量代替理解界定”的做法带来的研究偏离主要是由于研究者对“理解”本身的含义的解读受到了传统诠释学中浪漫主义观点的影响所致。以往的研究中,以再现和复原为手段,将验证公众是否理解科学转化为对公众的科学素养高低的调查,认为素养是对科学知识的“复原”,素养高的人更能理解科学原理也更能体会到科学的价值。将这种操作置于“知识、理解和信任”因果链条中分析时,其逻辑谬误就会显现:以“复原”科学知识的方式作为“理解”的形式,这会与“知识”本身重复,再进行二者关系的校验产生的“自相关”在研究上将导致无意义分析。
为了更准确地测量“理解”,进而澄清“理解”对于知识与信任的中介作用,我们借鉴当代诠释学关于“理解即是意义生成”的观点,重新界定“理解”的概念并将其作为操作化的基础。 我们借鉴了伽达默尔、海德格尔、菲尔特等人对“理解”的观点,认为只有将公众置于人工智能应用环境之中,让人工智能存在的意义被公众认知、陈述和判断,达到“去蔽效果(消除彼此间的误解、误读和误会)”并形成人工智能存在和发展的共识,才是公众“理解”人工智能的良好状态。
考虑到当前人工智能在各种应用场景中扮演的角色、发挥的功能以及带给公众的直接影响等问题是公众认知、叙述和判断人工智能存在意义的重要依据,我们认为良好的人机关系意味着人工智能在提高效率、解放劳动力并带来生活便利的同时能较好地维护人类的利益、促进社会公平,而且这些改变应在可知、可控、足够安全的情境下发生。在回顾了人工智能发展过程中的重要伦理维度的概念及其社会影响后,我们发现社会各界对人工智能伦理议题的讨论主要围绕其透明性、可解释性、向善性、公平性、安全性等几个方面展开,而这些方面对信任的建立十分重要。由此我们提出,人们对人工智能的伦理合规性评价可以涵盖“理解”的主要内容。由于公众对人工智能的伦理合规性评价涉及多个维度,且其中的内容相互交织, 在测量时,通常难以采用单一的指标来准确测量,因此我们建立了包括透明性、可解释性、向善性、公平性、安全性在内的综合性评价指标体系,涵盖多个伦理维度,以尽可能地确保评价的全面性和准确性。
对“个体对人工智能的信任水平”的测量同样不容易。从变量属性上看,信任是典型的潜变量。在大多数情况下,对潜变量的测量应采用一系列的反映型指标变量,基于潜变量的不同维度来全面反映研究对象。采用潜变量的优势在于能够从多个维度较为全面地反映概念内涵,从而减少采用传统单一显变量做代理变量带来的特征性测量误差。 在实际测量时,我们以帕森斯的社会系统论为依据,将社会系统分成经济系统、政治系统、社会共同体和模式托管系统,其中,经济系统方面的信任对应的是对企业和市场的信任;政治系统的信任对应的是对政府的信任;社会共同体的信任对应的是对非政府或者非营利组织的信任;模式托管系统信任对应的是对专家的信任。相应地,我们构建了“对人工智能产品或服务的信任”“对人工智能科学家和工程师从事的研发活动的信任”“对人工智能企业运营的信任”“对政府进行的人工智能监管的信任”指标来共同测量个体对人工智能的信任。






请到「今天看啥」查看全文