https://link.cnki.net/urlid/42.1085.G2.20240205.0939.002
孙竹墨,傅诗婷(整理).化蛹成蝶的期待:人智交互研究专题讨论纪要[J/OL].图书情报知识(2024-02-07). https://link.cnki.net/urlid/42.1085.G2.20240205.0939.002
中国科学技术情报协会2023年信息行为研究学术年会于2023年12月23日至24日在北京大学成功举办。其中,“人智交互研究”专题讨论围绕人智协作、人智竞争、人智冲突、人智共生等核心议题,探讨信息行为学者将如何在快速迭代的技术环境中抓住机遇、应对挑战,推动人智交互研究的前瞻性发展。此次专题讨论包括三个研究汇报和问题讨论共四个模块,纪要以此为主线分别记录各模块中专家学者的发言内容,以期为信息资源管理学科及信息行为领域学者提供参考。
武汉大学信息管理学院姜婷婷教授就人智交互领域的研究前沿进行了汇报,介绍了智能系统的分类方式,以及人智交互的研究主题、理论基础与研究方法。
人智交互并非一个独立领域,来自于计算机科学、信息系统、图书情报、心理学等学科的学者都在从事相关研究,将人智交互视为人机交互领域的前沿课题。我们团队从2022年就开始关注人智交互研究,提出信息行为学者可以发挥自身在用户研究和交互设计方面的独特优势,积极参与推动人本人工智能的长期稳健发展。
在人机交互研究中,传统的“机”涵盖了搜索引擎、社交媒体、在线社区等信息环境。然而,人智交互所涉及的信息环境发生了显著变化。今天说到“智”,大家可能首先会想到ChatGPT、大语言模型或生成式AI。实际上,如今我们在日常生活中能够接触到的AI系统还有很多。目前对AI系统的分类存在多种方式,其中可以基于呈现(Presence)和具身(Embodiment)两个维度进行划分。呈现维度可分为物理呈现和远程呈现,物理呈现即AI系统是物理存在的或与人们处于相同时空,如服务机器人、自动驾驶汽车、智能家居等;而远程呈现则是指AI系统通过移动设备或电脑屏幕等媒介呈现。具身维度关注的是AI对象是否具有人形,聊天机器人、语音助手、推荐系统都是没有形态的,而虚拟人可以具有人的外表、声音甚至是人格。
在研究人类与这些AI系统的交互时,研究人员具体探讨了哪些主题呢?我们认为大致可以分为人智协作、人智竞争、人智冲突和人智共生四大方向。
人智协作(Human-AI collaboration)是指人和AI为了一个特定的目标而共同努力,以使双方都能够充分发挥各自的优势。现有研究主要关注医疗健康、军事、创意等领域的人智协作。按人类对协作任务的控制和监管程度由低到高,可以将人智协作模式划分为协助智能(Assisted intelligence)、增强智能(Augmented intelligence)、协作智能(Cooperative intelligence)、自主智能(Autonomous intelligence)。
人智竞争(Human-AI competition)在狭义上是指人和AI 的游戏竞争,如何实现游戏的公平性、透明性以及平衡游戏的挑战性和娱乐性是人智游戏竞争关注的核心问题。在广义上,人和AI 在劳动力市场上也存在工作机会的竞争,虽然AI 替代部分人类工作是一个不可逆转的趋势,但是它也可以创造出许多新的工作机会。
人智冲突(Human-AI conflict )指的是人与AI 之间的不和谐状况,可能发生在人智协作或竞争的过程中。任务执行过程中人与AI 在资源分配或观点上的分
歧属于“任务型冲突”;如果人认为AI 执行了本应由人
类完成的任务而产生反感,这是“关系型冲突”。人智
冲突研究既关心冲突的避免,也尝试采取顺从或说服
策略化解冲突局面。
最后,人智共生(Human-AI symbiosis)相比前几个研究方向更为宏观,它更像是一个美好愿景,即实现高效协作、促进良性竞争、避免可能发生的冲突,从而使人和AI都变得更加强大。目前人智共生研究重点在于发展以人为本的人工智能,具体体现为可解释的、用户友好的、负责任的人工智能。我们在2022年就提出,人智交互和人本人工智能是一枚硬币的两面,一面是了解技术对人类的影响,另一面将人类融入技术的创新,共同内核在于人与AI 的和谐共生。
我们发现,当前为人智交互研究提供支撑的理论主要来源于传播学、心理学和社会学等学科,如媒体等同理论、社会临场感理论、准社会关系理论等,即将AI
视为社会行动者、将人与AI 的关系类比于人际关系。此外,已经在信息行为领域获得广泛应用的技术接受模型及其变体也被用于开展人智交互研究设计;而恐怖谷假设则是专属于人智交互领域的理论假设。
另一方面,人智交互研究所依赖的方法主要可以分为两大类:一类是以问卷、访谈为代表的自我报告方法;另一类是观察方法,除了利用人们真实使用AI 系统时产生的痕迹数据,也可以在实验室中采集人们执行实验任务时产生的反应性数据。受控实验是我们目前关注的重点方法,这也体现在2023年我们在《图书情报知识》上组织的“人智交互体验度量与智能产品设计”专题中 。
我们在过去一年多的时间里持续关注并整理人智交互相关文献,以上是基于我们的初步理解向大家展示的人智交互研究前沿概况,希望为大家了解这一新兴领域并开展相关研究提供一些参考。
南开大学商学院信息资源管理系张晓飞副教授就其正在开展的人智竞争实证研究进行了汇报,介绍了电商内容平台中AI机器人的出现对于用户贡献的影响。
本研究探讨了在线贡献平台中引入AI 代理(如AI机器人)后,人与AI 之间的竞争现象及其对用户贡献行为的潜在影响。具体来说,研究关注于国内一个大型电商内容平台“值得买”,它采用用户贡献的方式来发布折扣信息,形成一种在线竞争机制。通过分析这一平台,本研究意在揭示AI 引入后对用户贡献行为和心态的影响,这对于理解人工智能在信息系统领域的应用和其对人类行为的影响具有重要价值。
综观现有文献,可以发现当前在线平台研究的主要焦点集中在用户与机器的协作互动上。这些研究深入探讨了在协作环境中,用户与机器人或技术之间的相互作用,以及这种互动如何促进用户技能的提升和赋能过程。特别是,它们关注于用户如何与人工智能(AI)系统协同工作,以及在这种交互过程中,用户对AI的反应和适应方式。然而,相对而言,对于竞争情境下的用户间关系,以及用户与机器人/技术之间的互动关系的研究则显得较为稀缺。尤其是在人与AI的竞争关系方面,以及这种竞争关系对用户后续行为或心理状态可能产生的影响,现有研究提供的见解相对有限。这表明,在用户与AI的互动研究中,存在一个明显的研究空白,即对竞争环境下的用户行为和心理反应的深入理解。因此,未来的研究需要更多地关注于这一领域,以填补现有文献中的这一空白,并为理解用户与AI之间复杂的互动关系提供更全面的视角。
研究主要通过对比分析,选取了不同时间段进入平台的用户群体作为实验组和对照组,以探究AI机器人对用户贡献行为的具体影响。研究采用双重差分分析和其他统计方法,以及从用户贡献的数量和质量两个维度进行评估。研究结果发现当引入AI竞争者后,用户的贡献会显著降低,而该降低是由于AI的强大能力导致用户产生心理压力。
在对比分析竞争型AI与当前流行的合作型AI研究时,我们揭示了一个引人注目的共同结果:无论是在竞争还是合作的框架下,AI的介入似乎都倾向于缩小低效率与高效率用户之间的性能差距。这一发现具有深远的意义,它不仅突显了AI在平衡人与人之间能力差异方面的潜力,而且也为理解AI如何在不同互动模式下影响用户行为提供了新的视角。特别是在竞争型AI的场景中,这种效应可能导致更加均衡的竞争环境,其中效率较低的用户得到了提升,而高效率用户则面临新的挑战和适应需求。这种现象反映了AI技术在塑造人类社会互动和竞争格局方面的深刻影响,同时也为未来研究提出了新的问题:AI介入如何在不同的社会和技术环境中平衡效率与公平性?这一问题的探讨,对于理解和设计更加人性化、公平的AI系统具有重要的理论和实践意义。
未来研究将进一步探讨AI与人类互动在更广泛的在线平台环境中的影响,特别是在竞争与合作的不同情境下。此外,将关注不同用户群体对AI引入的反应差异,以及AI对用户行为的长期影响。通过深入分析这些问题,可以为设计更有效的人工智能系统和优化人机交互机制提供实证基础。
随着人工智能技术的迅速发展和普及,人智交互领域的未来研究前景广阔且充满挑战。未来的研究将不仅关注AI技术本身的发展和优化,还将深入探究AI与人类行为、决策和心理状态之间复杂的互动关系。特别是在人与AI的协作与竞争关系中,诸多未知因素如何影响人类的心理适应、行为调整和技能提升,将是未来重要的研究议题。这一研究趋势为行为科学研究者提供了一个独特的机遇,使他们能够探索在AI影响下的人类行为和心理的新领域。因此,对于行为研究学者而言,AI的兴起不仅是一个挑战,更是一个探索人类行为新领域的重要机遇。通过跨学科合作,结合AI技术的最新发展,他们可以在理解和塑造未来人机交互模式方面发挥关键作用。
武汉大学信息管理学院郑汉副教授汇报了其正在开展的人智协作实证研究,分享了生成式人工智能技术的算法可供性对于用户对其的信任、依赖、以及使用行为的影响。
人机协同的研究已经进行了多年,早期主要关注人与机器的简单协同,如机器人回答简单问题。随着ChatGPT等生成式人工智能技术的出现,学界开始更深入地研究这一领域。现在许多领域的学者都涉足生成式人工智能的研究,因为像ChatGPT和文心一言这样的工具已经广泛应用在日常生活和工作中,例如查询概念、编写代码等。因此,本研究的目标是从算法角度探讨哪些因素会影响人们在工作环境中使用生成式人工智能技术。具体来说,我们关注用户如何与生成式人工智能技术建立信任和依赖,以及这些因素如何影响用户在工作中的实际应用。在这个过程中,人类为人工智能提供语料和知识,同时人工智能也满足人类生活与工作中的信息需求,形成双向信息交换。
本研究基于互动媒介效应理论,该理论提出了人工智能的可供性可以通过提示和行动两种不同的途径影响用户的感知、参与、信任以及对人工智能的体验。在提示途径中,人工智能作为互动来源触发用户的心理简化或刻板印象。行动途径则是用户与机器代理进行交互,通过输入指令、操作界面等与人工智能系统交互,从而影响人们对人工智能技术的使用体验。本研究更侧重于行动途径,因为我们通过与人工智能的交互来获取所需信息和工作需求。本研究同时考虑了算法素养模型中(FATE)的四种可供性:公平性、责任性、透明性和可解释性。考虑到人工智能的算法受到编程原理、目标、运作方式以及大数据收集和使用方式等多重因素的影响,学者们通常借助FATE 模型来深入理解人工智能算法的可供性。公平性强调人工智能算法不应产生歧视或不公的结果。责任性关注的是当人工智能决策导致不良后果时,应明确责任归属。透明性要求算法决策过程对用户来说是清晰易懂的。可解释性强调算法内部机制应能用人类语言解释。这四大因素共同构成了人工智能算法的可供性,全面考虑它们有助于理解人工智能在实际应用中的影响。本研究着重探索用户如何理解、感知和参与生成式人工智能的算法内容管理,特别是他们如何解读人工智能生成的内容,以及这种解读如何影响他们对人工智能技术的信任和依赖。在此基础上,我们构建了初步的研究模型。
本研究采用两轮纵向问卷法,邀请了超过6000名日常工作使用生成式人工智能( 如ChatGPT、文心一
言)的用户参与。目前第一轮已回收824份有效问卷,第二轮正在进行中。初步分析显示,生成式人工智能用户主要为年轻人,与现有趋势相符。此外,用户平均每周使用该技术的时间超过五小时,表明其使用相当频繁。本研究还结合深度访谈法,对30名日常使用生成式人工智能的用户进行访谈。招募过程主要通过社交媒体广告吸引各行各业的用户参与。访谈时长约一小时,围绕研究模型中的概念及与生成式人工智能使用相关的隐私信任因素展开,旨在深入了解用户的使用模式和行为。目前访谈数据正在分析中,主要采用扎根理论进行编码和概念提取。
分析第一轮问卷数据,我们发现公平性和可解释性显著影响用户对生成式人工智能的信任,而透明性和责任性影响不明显。访谈结果也显示,大多数用户更关注人工智能能否满足工作需求和提供真实信息,而非人工智能的透明度和责任归属。此外,透明性和可解
释性还增强了用户对技术的依赖。用户希望了解人工智能背后的机制,这使他们更依赖技术。不少用户表示越来越依赖生成式人工智能,如学生使用ChatGPT润色文章。ChatGPT故障时,有用户认为科研停滞24小时,这显示了技术的深度依赖。因此,如何避免过度依赖生成式人工智能是值得关注的问题。此外,内容信任度的提升确实导致技术依赖的增加,但内容信任并不直接导致技术采用。后续研究将结合两轮调查和访谈结果,深入探讨算法可供性如何影响用户对生成式人工智能的信任和依赖,从而促进技术在实际工作中的应用。
|
4
问题讨论:
信息行为学者从事人智交互研究的
优势与挑战
|
|
姜婷婷:
通过前两位老师的分享,可以发现在开展人智交互领域的研究时,可以借鉴信息行为领域的丰富研究积累,将其迁移到人智交互研究中。现在我想邀请在座的老师就两个问题展开讨论和意见交换:
( 1 )信息行为学者从事人智交互研究拥有哪些优
势?可以聚焦于哪些方面?
( 2 )信息行为学者开展人智交互研究时面临哪些
新挑战?如何应对?
张鹏翼:
针对第二个问题,我想分享两个观察。我注意到信息行为领域的学者在从事人工智能相关研究时存在的两个矛盾。
首先,我们的研究往往是响应性的,即对新技术的出现和发展作出回应,例如对元宇宙、智能算法、生成式AI 的研究,都是这样的模式。然而,这种响应性研究进行的是以人工智能为中心的研究,即研究新AI技术如何被人类使用,这与人本人工智能的理念存在矛盾。
其次,由于AI 技术创新主要由大型互联网公司等企业主导,商业逻辑在一定程度上支配着学术研究的逻辑。例如,近日了解到的一项研究指出目前在服务领域使用的数字虚拟人往往采用女性的声音或形象。这很可能是出于商业逻辑的考虑,因为男性用户更愿意为这些虚拟人付费。然而,这在追求商业利益的同时,也进一步强化了刻板印象,如服务行业就应该是女性从事的。尽管 AI 是应该有能力去克服这种刻板印象的,但是很遗憾商业逻辑取胜了,不但没有克服、反而还强化了这种刻板印象。我认为这两方面的矛盾构成了挑战。
姜婷婷:
是的,您提到的现象在娱乐主播领域也有类似的发现。这种性别差异可能与特定垂直领域的需求和用户行为有关。在娱乐陪伴场景下,男性主播可能更容易受到女性观众的打赏,而女性观众可能更倾向于在情感交流方面寻求满足。这进一步强调了商业逻辑和用户需求之间的关系,以及这些动态如何在人工智能技术的推动下产生影响。感谢张老师的分享。
赵一鸣:
我以人与大模型的交互为例,谈一下我的看法。大模型时代人机交互范式的一个突出特点是自然语言交互,但自然语言交互也不是大模型诞生之后才有的。1961年的Baseball、1966年的Eliza和1972年的LUNER,就都已经具备了一定的自然语言问答能力,而2009年推出的Wolfram Alpha已经是一款比较强的在线自动问答系统了。
我们可以回看一下2012年,彼时,谷歌推出的Knowledge Graph把搜索引擎改造成了一个兼具搜索与问答功能的智能搜索系统。那个时候,信息行为领域的学者也是在知识图谱技术带来的挑战中寻找研究机会,比如我就做了搜索引擎的自然语言问答能力评价、智能问答质量评价等相关研究。
我在《智能时代的搜索与问答服务创新研究》一书中,从搜索与问答的角度,指出过人智交互的一些发展趋势,包括“搜索与回答的边界日益模糊”,“以智能语音助手、对话机器人等为代表的智能问答系统将具有‘情商’,并产生更多元的机器行为”等,都已经或者正在成为现实。
今天,我们面对以大模型为代表的生成式人工智能技术的挑战,同样要去拥抱而不是回避它,从用户信息行为与交互的视角去寻找研究机会,比如用户的指令偏好预测、Prompt的评价与优化、人与大模型交互过程中的信息行为,等等。
最后,我想说:人工智能包括三个层次:计算智能(能存会算)、感知智能(看得见、听得到、说的出)、认知智能(能理解会思考),对于信息行为领域的学者来说,这三个层次中都蕴含着大量的人智交互方面的研究机会。
姜婷婷:
感谢赵老师的分享。所以我们自身的研究经历启示我们,在人智交互领域,尽管我们未深入了解技术的内核,但我们有能力分析研究人与技术之间的交互。尤其在当前大模型的背景下,我们依然能够基于这一问题展开广泛的研究。
刘畅:
感谢姜老师的邀请,也感谢两位专家的分享,给予了我很多启发。现在大家都在赞叹人工智能的强大,但在我筹办会议的过程中未曾考虑过让AI替我进行筹备,因为现在AI还没有发展到这种程度。我有一本英文专著《Search Interface Design and Evaluation》,于2021年完成。当时业界有不少人担心,搜索将被个性化推荐所取代。的确,我们能看到现在越来越多的信息系统和app采用个性化推荐的算法,将用户喜欢的信息推送给用户。但是除此之外,我始终坚信,人们还是有表达信息需要、展开主动搜索的需求的。如果未来人类都是被动地接收信息,人还能做什么呢?因此,我一直坚持人仍应该发挥主动性。
搜索领域的ASK理论指出,人类在表达信息需求时难以准确地描述,系统需要帮助他们表达。然而,我现在对此有了新的看法,即当人难以表达时,系统应该帮助人们、引导人们表达出来,而非直接替代。如果系统永远帮人说话,我们只会担心智能体越来越发达,而人可能真的变得越来越弱小。在人智交互过程中,如何使智能体更强大,同时提升人类个体的能力,是需要我们深入思考的问题。近年来,我一直致力于研究“搜索即学习(Search as Learning)”的相关问题。在实践中,我发现人们搜寻信息并不仅仅是获取到相关信息就结束了,信息需要经过人的深度思考,才会有收获。如果没有这个过程,直接将ChatGPT生成的信息给人们,就失去了意义。
因此,我认为未来的信息行为研究需要更强调个体获取信息后的使用、理解过程,以及如何将信息融入个体的思维中,从而提升个体的能力,包括高阶认知能力、创新能力、联结能力、意义建构能力、元认知能力等。对于姜老师提出的我们有什么样的优势、可以聚焦哪些方向的问题,我认为我们的一个优势是评测。刚刚两位老师包括其他分享的老师们也提到了这一点。我们之前在以用户为导向的评测方面做了很多工作,不论是服务还是系统,有很多经验和积累,应该进一步发挥。在未来的评估中,我们应该更多地考虑人们希望成为什么样的个体,期望未来社会是什么样子,才能制定相应的评测标准。举个简单的例子,我们为学生设定什么样的综合评价指标,他们就会朝着这个方向发展,成为相应类型的人。那么未来我们希望人工智能发展成什么样子,就应该提出一套评测指标,以便按照这些标准引导AI朝着特定方向发展。这只是我的一些初步想法,可能还不够成熟,但我希望通过姜老师的平台与大家分享,共同探讨这个领域的细节问题。
姜婷婷:
感谢刘老师的分享。正如我们刚才所讨论的,除了要致力于开发以人为本的人工智能,我们还需不断提升自身的智能素养。否则,一味地依赖人工智能可能导致人类发生新的异化。在现实生活中,几乎每个人都依赖电子产品,无法进行实质性的面对面交流,只能通过手机进行沟通。如果人工智能在未来取代了许多人类工作,我难以想象我们人类将会变成何种模样。因此,这也是一个极具研究价值的伦理问题。
最后,我想请教两位分享实证研究的老师,在进行人智交互研究时是否遇到过特定的挑战或问题,以及是如何解决的?
张晓飞:
我们目前正在与“值得买”平台展开合作。与企业合作设计基于大模型的实验已经成为一种趋势。然而,现在面临的主要问题是如何说服企业参与并开展这样的实验,因此我们需要在这方面投入大量精力,找到大模型需要解决的问题,以及平台/ 企业和他们的用户所面临的关键问题。从这个角度出发,如果我们能够找到一个企业感兴趣并希望解决的关于人工智能的问题,那么企业可能会更愿意配合我们进行实验,从而可以开展更好的研究,采用更有效的方法验证这一关系。
郑汉:
我一开始遇到了一个挑战,即从哪个角度研究用户对人工智能技术的使用。姜老师之前提到有许多理论可供选择,但技术接受模型等理论已经存在了几十年,并且已经被广泛应用在许多产品中。如果仅仅将技术接受模型应用于生成式人工智能技术,可能会被认为创新性较低。此外,通过进行问卷调查,我发现人们肯定能够接受这项技术。因此,我认为在当前领域进行理论创新相对较为困难。另一个问题是,尽管我使用了算法可供性模型并验证了一些变量之间的关系,但在访谈中,我发现人们对算法可供性的理解可能并不深刻,可能并不关注这个方面。因此,我们首先需要明确用户在使用过程中关注的重点,并找到合适的理论来研究这个问题。例如,我之前研究了人们对生成式人工智能的信任,这种信任包括对技术、生成内容以及背后企业的信任。然而,有些受访者根本不关心OpenAI 公司,也并不信任这一公司,他们只关心AI 生成的内容是否能解决问题,以及是否提供的是真实的信息。因此,在未来的研究中,我们需要关注用
户的具体考虑因素。
姜婷婷:
感谢两位老师分享的在具体研究中遇到的问题。我们团队在研究中也遇到了一些问题,其中一个问题令人感到无奈,即学界和业界都在不断推进,但业界的速度可能远超过学界。有时候,当我们想到一个问题、收集好数据、成文后准备发表时,业界可能早已解决了这个问题。因此,我们有时会感到困惑,不知道在哪里找问题,究竟要做什么问题。但我有一个有趣的经历,是在酒店办理入住手续时遇到的。前面有个服务机器人走得很慢,我想超过它,但由于走廊很窄,我拿着行李超不过去。它嘴里念着“我是一个机器人,你要让着我”。这引发了人智冲突。后来要进电梯时,它说“你得让我先进”,然后它就进去了,站在中间,让其他人缩在角落,使我的体验非常不好。但后来我跟它聊天,问它“我在哪啊?”,它说“你在我的心里”。我又问它“我现在饿了怎么办?”,它说“赶快进你的房间去睡觉吧,梦里什么都有”。这种在没有预期的情况下与机器人进行的对话引发了我对从生活中找问题的思考。因此,回来后我们就开始研究人工智能语言交流中的幽默策略,也就是是否可以引入一些幽默策略来增强人们对人工智能的接受度,化解人智冲突。从个人经验来看,许多问题可能源自我们自身与现实世界互动中的一些有趣的点。因此,我认为我们可以进行一些前瞻性的工作。
之前我专门请设计团队为本次专题讨论制作了一张海报。设计师说,海报的背景是由人工智能工具Midjourney生成的,是一个机械蝴蝶的样式。机械元素代表了人工智能技术,那么蝴蝶呢?我想我们的讨论可能会给大家带来一些启发,在后续研究中可能会发现一些有趣的问题,将我们在信息行为研究中的积累融入到人智交互研究中,并在人智交互领域占据一席之地,形成自己的特色。这也回应了李月琳老师的问题,我们是否能够开辟一个新的学术方向?我们是否有一些有趣的研究问题,可以与其他领域的学者共同推动人本人工智能的发展?这是一个美好的愿望,希望今天的讨论能够激发大家的灵感,让刚刚起步的人智交互研究化蛹成蝶,为人本人工智能的发展点亮前路。
|
Focusing on the State of
Public Knowledge
Leading the Development Trends of
the Discipline
|
网络首发 | 信息韧性视角下的可持续信息学研究述评:知识基础、研究议题与应用场景
网络首发 | 今天你上“小红书”了吗?在线社区用户信息分享的主题提取与动机分析
网络首发 | 数智赋能信息资源管理新路径: 指令工程的概念、内涵和发展
网络首发 | 个人通信数据的敏感性识别与隐私计量研究