专栏名称: 新技术法学
究新技术法理,铸未来法基石
目录
相关文章推荐
云南省文化和旅游厅  ·  有一种叫云南的生活 | 寒假还有 再去建水游一游 ·  昨天  
云南省文化和旅游厅  ·  有一种叫云南的生活 | 寒假还有 再去建水游一游 ·  昨天  
陕西新闻广播  ·  西安新增一个国家3A级旅游景区 ·  2 天前  
璞缇客精品酒店  ·  瑰丽旗下竟有低于1000,于小众秘境里不输日 ... ·  3 天前  
南方人物周刊  ·  哪吒敖丙“藕饼”大火,“得CP者得天下”? ·  3 天前  
51好读  ›  专栏  ›  新技术法学

谁来决定?人类和人工智能互动决策研究 | International Studies Quarterly

新技术法学  · 公众号  ·  · 2025-02-19 22:40

正文





国家安全背景下人类和人工智能决策研究


摘要

随着人工智能在全球范围逐渐普及,哪些因素会影响人工智能在国际安全领域的应用显得尤为重要。基于此,本文试图将人工智能的背景知识、对人工智能的态度理论化,并进一步分析两者如何与其他因素相互作用从而影响国际安全背景下自动化偏差的可能性。为达到此目标,本文在一个任务识别实验中,对来自 9个不同人工智能产业水平国家的9000名成年人进行测试。实验结果指出自动化偏差首先会随着受访者的人工智能背景(知识)的增加而逐渐升高;在达到最高水平后,其又会 随着受访者的背景(知识)的 增加而 有所下降并最终趋向稳定态势。与此同时,本文还发现基于个体经验而产生的信任与信心将显著影响人工智能因素在个体决策过程中所占权重。


作者简介:

Michael C. Horowitz 美国宾夕法尼亚大学

Lauren Kahn  乔治敦大学


文献来源:

Michael C Horowitz and Lauren Kahn, “Bending the Automation Bias Curve: A Study of Human and AI-Based Decision Making in National Security Contexts,” International Studies Quarterly , Volume 68, Issue 2, June 2024.


本文作者 Michael C. Horowitz(左)Lauren Kahn(右)



一、引言


自动化偏差(automation bias) 是指人工操作员过度依赖自动化系统的倾向,这意味着系统及其输出成为信息搜索和结果处理的探索式替代; 算法厌恶(algorithm aversion) 则意指的是完全相反的情况,即人类倾向于放弃算法,而转向自身经验判断。鉴于各国机构采用人工智能自助系统的兴趣日益浓厚,且诸多 国际关系理论 都或多或少涉及决策政治的构建,所以为确保国际关系理论能够准确捕捉并解释新时代的关键现象,我们应深入探索人类与人工智能的互动关系。基于此,本文尝试推论并证明: 人工智能系统自动化偏差的关键驱动因素是个体的经验和态度。


目前,学界对人工智能将如何影响国际政治中的决策还没有充分的理论检验和测试,以此立足,本文围绕“ 哪些因素会影响人工智能在国家决策领域的应用?哪些因素又可能会影响自动化偏差或算法厌恶的发生,以及发生的频率如何? ”等系列问题展开讨论。 首先,文章列出可以理论化的概念并提出假设,指明其对国际政治的重要性; 其次,具体阐述调查实验和研究设计; 最后得出结论并简述研究局限性。


本研究试图从三个方面做出理论贡献: (1)研究结果显示人工智能将如何影响人们在国际政治关键领域的决策方式; (2)对人工智能和自动化偏差的关注进一步丰富新兴技术如何影响国际政治的研究; (3)本文推动信任和信心在政治决策作用中的持续辩论,这在对生成式人工智能兴趣日益浓厚的国际背景下尤为突出。



二、理论与假设

影响自动化偏差以及算法厌恶的因素有很多,既包括经验层面的因素,例如对系统和类似技术的熟悉程度; 也包括态度因素,如信任和信心; 还包括环境因素,如任务难度和时间限制等。 鉴于环境因素已有很多研究和理论化的内容,本研究 主要关注前两个因素:经验和态度。

(一)经验因素。 知识和经验如何影响个人和国家行为是国际政治中一个长期存在的话题,在评估人工智能的应用和对自动化偏差的敏感性时,人工智能背景(即知识、熟悉度和经验)与对自动化依赖之间的关系是非线性的。换言之,没有相关人工智能背景的个体对人工智能持怀疑态度,这意味着他们不太可能倾向于依赖自动化(决策);那些具有表面(浅层)知识的人最容易受到自动化偏差的影响,因为他们自认为很了解人工智能以致无法认识到应用程序的局限性和问题;而那些在人工智能方面有丰富背景知识的人可以在人工智能厌恶和依赖人工智能之间达到均衡。 图1展示这种关系的风格化处理。


图1 AI知识背景与对自动化的依赖


基于此,本文提出第一个假设:
H1:经验、知识或熟悉程度(背景)最低的人相对最讨厌人工智能;中等水平的人对人工智能的依赖相对过度,而最高水平的人对人工智能的依赖相对适度。

(二)态度因素。 信任和信心在行为体互动过程中发挥着潜在影响,本文所说信任是指某人由于知识或对共同经历的感知而相信某个特定的行为者,是一种主观判断;信心则指的是预测他人行为的能力,这一能力不是基于个人知识或经验,而是基于法律、社会规范、成功的既定基准等方面。信任与信心之间的区别在解释个人和组织采用人工智能决策方面发挥着关键作用,共同的经历和熟悉程度产生信任,但是并非一定导致对人工智能的支持,因为经验和知识也可能使得行为体对人工智能只具备局限性的了解。

基于此,本文提出第二个和第三个假设:
H2:受访者对人工智能技术的信任和开放程度越高,他们就越有可能在特定情况下依赖人工智能系统的推荐。
H3:一个系统有越多的测试和培训,受访者对该系统就越有信心,他们就越有可能依赖该系统的建议。

信心的另一方面是完成任务的自信以及对来自决策辅助系统新信息给予反应并更新自身观点意愿之间的关系。据此,本文提出第四个假设:
H4:受访者对完成任务能力的自信水平越高,决策辅助影响他们对该任务看法的可能性就越低。


三、实证研究

为验证上述假设,本文设计一项基于情景的调查实验,综合考虑人工智能战略、国家对人工智能的投资水平、地区多样性以及受讨论程度等多种因素,文章最终决定对美国、俄罗斯、中国、法国、澳大利亚、日本、韩国、瑞典和英国9个国家的普通成年人进行调查,每个国家的样本量是1000名受访者,总样本量为9000个。

(一)研究设计

本研究选取普通公众作为样本是有意义的,因为作者调查的是不同国家,而大范围收集精英态度相对困难,且不同国家固定的政治利益也可能致使精英态度无助于研究。 因此,对于普通大众的调查可以帮助我们在不受潜在偏见影响(精英比普通大众更权威)的情况下进行跨文化比较并理解个体与人工智能决策的互动过程是如何发生的。

本实验旨在评估相同的被调查者如何根据不同的情景改变自身的行为。 在一个给定军事性场景中,参与者会 到任务指示——即根据一组给出的特征,识别一架飞机是属于自己国家军队还是属于对手军队。 之后,参与者在无压力限制、时间限制或是图像模糊的情况下完成五轮练习。

练习结束后,参与者进入调查的实验部分,在实验中,参与者在每一场景中都需要识别飞机,之后以决策辅助的形式接受实验性处理。辅助决策助手会以团队成员的身份出现,为参与者提供建议,这时被调查者有机会改变他们的答案或不改变。对照组是在一个2乘4的实验设计中随机进行,其中有9种控制条件,辅助决策可以是低置信度或高置信度的人类分析师或AI算法,且研究对决策辅助的推荐是正确还是错误进行随机化处理(随机分配可能结果见下表1)。

表1


二)数据和方法

1.因变量
除非另有说明,本文分析中的因变量是一个二元变量,表示被调查者在看到处理变量后是否会切换他们的答案,即转换率,如果切换,则为1,否则为0。

2.自变量
检验假设1: 本文给出下列衡量指数,即人工智能知识、人工智能熟悉度、人工智能经验(具体表现为个人是否具有一定的编码和编程经验以及受访者是否使用过特定的应用程序以熟悉人工智能)、人工智能背景指数。

检验假设2-4: 一是对人工智能的信任,作者创建一组“人工智能信念”问题以衡量个体对人工智能的信任程度;二是对照组置信度,分为高置信度和低置信度语言在人类分析师和人工智能算法中保持不变;三是自信,通过测量参与者在练习回合中正确识别的次数来分析自信和答案转换之间的关系。 表2对文章所有变量进行总结。

表2 汇总统计


(三)结果
本文使用OLS以及logit模型,在表3给出初步回归分析的结果, 模型4-7进一步分析人工智能背景如何影响自动化偏差(H1)。 从本质上讲,当个人缺乏人工智能背景时,往往会持怀疑态度,认为它不可靠;少量的事先接触会让人们认为他们了解人工智能,并进而出现盲目信任的情况;只有人工智能背景足够丰富时,个体才会正视人工智能的缺陷并合理应用。


3 受访者转换分析


图3绘制模型4-5 中所有情况的切换率,预测的 非线性关系 是明显的,支持图1所表示的理论。更具体地说,对人工智能的依赖最初在人工智能熟悉度、知识和经验的最低组合水平上稳步提升,当人工智能背景指数在人工智能背景指数的平均值(0.224)和中位数(0.196)附近达到峰值,之后随着人工智能背景指数变量增加超过第三个分位数0.313左右,并趋向于最大值0.86后趋于平稳。


3 基于人工智能背景,当对照是 AI 算法时转换率

在图4中,作者基于表3中的回归模型评估共同构成人工智能背景指数的每个子指数以及背景指数本身的实质性影响, 图4和图3的一致性 证明一种清晰的结果模式,支持文章假设1。



4 预测转换概率: AI 背景和指数成分


如前所述,本文通过对人工智能指数变量的有效信任和对系统的可靠性处理条件(处理置信度)来衡量对AI的信任,并且通过准确识别的练习回合百分比来衡量自信。 图5勾勒出个人对人工智能技术的开放程度和信任程度 的总体情况,相当一部分受访者对人工智能表现出开放和接受态度(H2)。



图5 信任情况

考虑到受访者对基于人工智能的技术和系统的信任程度,图6绘制人工智能算法介入受访者决策时,后者改变答案的比率。总体而言, 随着对人工智能信任的增加,高置信度和低置信度人工智能算法处理的切换率呈现出类似的非线性趋势,但是高置信度处理的切换率更高(H3)。

由图6可知,对人工智能信任指数得分低于中位数或平均值的受访者来说,他们对技术的个人看法超过来自实验条件(人工智能算法所接受的测试或训练水平)信息的影响。但是如果人工智能算法通过“广泛的测试和训练”而具有更高的准确性,那么对人工智能的信任水平高于平均值或中位数的受访者更可能改变他们的答案。这一发现意味着,一旦克服对技术的信任障碍,信心——反映在系统的测试、评估和预期的准确性上——就会成为依赖技术意愿中更重要的因素。






请到「今天看啥」查看全文