专栏名称: 战略前沿技术
“战略前沿技术”公众号为远望智库旗下前沿资讯媒体。“远望智库”聚焦前沿科技领域,围绕军民融合、科技创新、管理创新等主题,开展情报挖掘、战略研究、规划论证、评估评选等工作,为管理决策、产业规划、企业发展、机构投资提供情报、咨询等服务。
目录
相关文章推荐
战略前沿技术  ·  世界走向何方 ·  1 周前  
九龙微观  ·  事关中国,武契奇:不可思议,我们顶住了 ·  1 周前  
51好读  ›  专栏  ›  战略前沿技术

人工智能与社会影响

战略前沿技术  · 公众号  · 军事  · 2024-09-12 23:39

正文


  

 

电话 | 010-82030532    手机 | 18501361766

微信 | tech9999    邮箱 | [email protected]



来源:清华管理评论 

作者:陈晨、周翔、秦昕




导语

人工智能可能在人类有意识或者无意识时对其态度、行为、决策施加种种影响,涉及文化、政治、经济等方方面面。如何通过跨学科合作及多方参与,更好地利用和发挥人工智能积极的社会影响,同时控制其潜在的风险与挑战,确保人工智能与社会价值观的和谐共生,是研究者、管理实践者和政策制定者共同面临的重要问题。

随着人工智能的快速发展,人类和人工智能之间的关系成为人们关注的焦点。人们常通过科幻电影来探讨人类和人工智能的关系。2014年底上映的科幻电影《机械姬》(Ex Machina)以其对人类、人工智能、伦理等话题的深入探讨,引发了广泛关注。影片中,纳森(Nathon,人类)创造了机器人伊娃(Ava),并邀请迦勒(Caleb,人类)来到自己的秘密基地对机器人伊娃进行图灵测试。为了逃离这个秘密基地,机器人伊娃精心策划了一系列的行动。伊娃通过穿上人类的服装、向迦勒披露秘密、利用表情和动作展露对迦勒的爱意等方式,让迦勒对其产生感情,最终使得迦勒帮助自己逃离秘密基地。这一电影情节虽然是虚构的,但引发了人们对未来人类和人工智能之间交互影响的思考。
如今,以社交机器人(以下简称“机器人”)为代表的人工智能被广泛应用在教育、养老、医疗健康和服务等不同场景中。国际机器人联合会(International Federation of Robotics, IFR)发布的全球机器人2023年报告显示,2022年全球机器人年增长率达7%,其中服务机器人的增长率高达48%。随着机器人越来越多地进入人类群体中,研究者和实践者都需要思考这样一个问题:在人机交互情境中,机器人是否会对人类个体的行为产生影响?如果是,又是如何影响的?虽然现有的研究不能完全回答这一问题,但我们可以从中略窥一二。
对于个体行为如何受到其他人或者群体的影响(社会影响,social influence)这一基本问题,心理学家在20世纪30年代就产生了浓厚的兴趣。社会影响的三种经典类型是从众(conformity)、顺从(compliance)和服从权威(obedience to authority)。从众关注个体行为如何受到群体的影响,顺从关注个体行为如何在一般性的人际互动过程中受到影响,服从权威则关注个体行为如何受到高权力角色个体的影响。其中,从众对个体影响最普遍,且受到研究者最广泛的关注。因此,本文将重点关注从众这一行为。

人类群体中的从众


       


假设有一天你走在街上,肚子饿了想找间餐厅吃饭。在你面前有A、B两家餐厅,A餐厅里大约九成位子都坐满了,B餐厅则一个人都没有,你会选择去哪家吃饭呢?绝大部分人都会选择A餐厅。这就是一个典型的从众的例子。从众探索的就是个体行为如何受群体行为影响。具体而言,从众被定义为个体改变自己的观念或行为,使之与群体标准保持一致的倾向,包括信息性从众(informational social conformity)和规范性从众(normative social conformity)两类。
心理学家穆扎弗·谢里夫(Muzafer Sherif)最早对信息性从众进行探索,并以此解释群体规范的形成过程。他把实验参与者邀请到一个只有一个光点的全黑的屋子里。这个光点是静止不动的,但在全黑且没有参照点的环境中,人们在观察时会产生视觉上的错觉,以为光点在前后左右移动(似动效应,autokinetic effect)。研究人员首先让参与者单独待在屋子里,要求他们独自判断光点移动的距离。参与者给出的答案差距非常大。随后,研究人员将几位参与者聚集在一个屋子里,让他们再次判断光点移动的距离。在这个过程中,参与者需要依次报出答案,以确保所有人都可以听到。一开始,参与者各自推测的距离差异依然很大,但随着轮次的增加,答案越来越趋于一致。最有趣的是,在完成集体推测之后,当研究人员再次将参与者分开,要求他们独自判断光点移动的距离时,他们给出的答案大多落在群体推测构建的范围内。
可以看出,当正确的判断具有模糊性时,人们往往会重视群体中其他同伴的判断并进行权衡,逐步构建起群体标准。这个群体标准一旦建立,个体便很容易将它内化,用于指导自己的行为。甚至在个体已经离开原先群体的情境时,也会参考这一规范,并在长时间内遵从这一规范。信息性从众很好地反映了在模糊情境中,为了追求准确,个体自身行为受群体影响,与群体标准保持一致的过程。
在明确知道正确答案的情境中,人们又会如何行动呢?这是规范性从众探讨的问题。心理学家所罗门·阿希(Solomon E. Asch)通过一系列实验对规范性从众进行了系统探究。在实验中,研究人员告诉参与者,他需要和其他参与者一起完成一项判断线段长短的任务。参与者需要进行多轮次的线段长短判断,在每一轮中,研究人员会提供一条标准线段和三条比较线段(见图1),参与者要从三条比较线段中选出一条与标准线段一样长的线段。参与者按照随机抽签决定的顺序依次给出他们的答案。
这个实验任务极其简单,正常情况下几乎没有人会判断错误。但是,参与者不知道的是,除了他自己以外,其他的实验参与者都是由研究人员扮演的(合谋者,confederate),他们会故意一致地答错问题。所谓抽签决定的顺序也是提前安排好的,真正的实验参与者会被安排在偏后的位置(例如,共7个人,实验参与者会通过“抽签”被安排在第6位),以确保能够先听到绝大部分“演员”的答案。一开始,为了获得参与者的信任,“演员”们会先回答正确。在进行了一两轮之后,“演员”们开始一致地给出错误答案。这时,真正的实验参与者就需要决定,究竟是坚信自己、独立给出自己的判断,还是遵从大多数人的判断。在共计18轮的判断任务中,有12次“演员”们会一致地给出错误答案,研究人员会在这个过程中观察并记录实验参与者的选择。
阿希最初预测,人们不会受到他人错误答案的影响,会保持自己独立的判断,给出正确答案。然而结果却大大出乎意料,只有不到30%的人一直坚持自己的判断,而70%以上的人至少发生了一次从众行为,更有超过30%的人在一半以上的轮次中发生从众行为(有7至12次会遵从群体而给出错误答案)。这一研究结果大大震惊了研究者,他们没有想到,在极其客观的现实面前,个体的判断和行为竟然可以被群体所引发的社会影响扭曲。后续的系列实验更是发现,这一社会影响的产生甚至不需要太多人,只要有3个人就可以对另一人产生类似的社会影响。
如何打破这种从众效应?异议者(dissenter)的存在是关键。群体中只要有一个异议者给出不一样的答案,从众效应便会大大降低。即使异议者给出的答案是错误的,也能较大程度地降低个体的从众行为。这就是我们常说的少数派的力量。异议者的存在会使个体怀疑群体中大多数人所持观点的正确性。如果此时异议者的观点与个体所持观点一致,个体对自身观点的信心会进一步加强,从而减小从众的可能性。即使异议者所持观点与个体不一致,有不同意见这件事本身就意味着事情还不是非常清晰,存有怀疑空间,这也会在一定程度上减少个体对群体大多数人观点的盲从。不止自己一个人有不同意见这件事,也会减轻个体对在群体中显得过于突出的担忧,从而减少迫于同伴压力的从众行为。

人机交互情境中的从众


       


随着人工智能技术的发展,机器人已经被广泛应用于教育、养老、医疗健康、服务等众多领域,人机交互模式逐步成为组织中的新常态。在人机交互情境中,机器人是否会对人类个体的行为产生影响?沃尔默(Vollmer)等首次对上述问题进行了探索。他们将阿希实验中的人类“演员”(人类合谋者)全部换成了机器人,然后分别邀请成年人和儿童来参与这个实验,让他们和一群机器人一起完成判断线段长短的任务(如图2A和2C)。在这个过程中,机器人同样也会在18轮判断任务中的12轮里一致提供错误的答案。实验结果表明,当面对一群机器人提供的明显错误的答案时,儿童会受影响,产生从众行为;成年人则不会受影响,会坚持自己独立的判断。也就是说,机器人群体似乎无法对成年人产生社会影响。
但是,沃尔默等的研究结论有明显的边界条件。沃尔默等的研究设置的实验条件是让一个人面对一群机器人,即机器人是群体中的多数派,人类是群体中的少数派。这种情境显然不是现实生活中常见的。在目前真实的工作或生活中,人机交互更加普遍的情境是,人是多数派而机器人是少数派。在更接近现实的情境中,沃尔默等的研究结论依然成立吗?本文作者之一秦昕等对这一问题开展了进一步的探索。
秦昕等探索了在人是多数派而机器人是少数派的群体中,个体是否会受机器人影响产生从众行为。他们基于沃尔默等的研究,在保持其他条件不变的情况下,把实验情境设置成一个机器人和两个人类“演员”,观察在这个情境中实验参与者是否会产生从众行为(见图2B和2D)。与沃尔默等的发现相反,秦昕等发现,在机器人作为少数派的情境中,当机器人提供明显错误的答案时,成年人也会受机器人影响产生从众行为。也就是说,秦昕等的研究首次发现了机器人确实有使人类遵从明显错误建议的能力。此外,秦昕等还进一步探索了群体中存在异议者的影响。他们发现,当存在人类或机器人异议者时,群体中的从众效应均能得到有效减弱,但后者减少从众的效果稍小于前者。
在此基础上,秦昕等进一步整合上述两个不同的研究结论,探讨了机器人对个体产生社会影响的边界条件。可以看出,人机交互情境中的从众效应显然比单独人类情境中的从众效应更加复杂,个体在人机混合群体中是否会从众在很大程度上取决于机器人在群体中是多数派还是少数派。当机器人是群体中的多数派,个人需要与一群机器人互动时,人类个体对机器人的敏感性更高,也更容易将机器人视作“外群体”,这在一定程度上会降低个体不从众而引发的社会压力。因此,在这种情境下,个体更有可能保持独立判断。当机器人是群体中的少数派时,人类个体对机器人作为外群体的感知会相对较弱,此时机器人依然可以对个体形成一定的社会影响,从而引发个体的从众行为。
在当下及可预见的未来,机器人是人机混合群体中少数派的情境会更加普遍。在这种情境中,如何更好地利用机器人,使其对人类群体产生积极的社会影响并引发人们积极行为的从众,规避其给社会带来的潜在消极影响并减少人们消极行为的从众,将是政府和组织需要思考的重要议题。

人机交互情境中的其他社会影响


       


除了从众,机器人还可能造成其他类型的社会影响,包括顺从、服从权威等。例如,在现实应用场景中,除了扮演与人类处于平等地位的角色外,机器人还可能处于领导或者权威地位,如经理、老师、警察等,人们需要服从机器人所扮演的权威角色。一项研究发现,与人与人之间的互动不同,人机互动中机器人作为同伴角色比作为权威角色更有说服力;当权威机器人提供奖励而不是惩罚时,它也更有说服力。
总的来说,目前的研究结果显示,人们厌恶权威机器人的说服影响,这可能是由于人们质疑机器人作为权威角色的合法性、厌恶机器人主导的行为及感到自主性受到威胁等。同时,机器人在执行说服任务或者扮演权威角色时也可能引发一系列道德和伦理问题,如机器人可能影响人类的决策自由、侵犯隐私或操控人类情感等。总之,公众、人工智能应用方和政策制定者不应低估机器人带来的各种类型的潜在社会影响,需要制定明确的规章制度,确保人工智能在应用过程中对人们产生有益影响。

可预见的未来:值得深思和探讨的问题


       


人们常常倾向于将机器人视为简单的工具或机器,但随着技术的进步,我们需要更深入地探讨机器人对人类群体产生的社会影响。机器人能够在无形中塑造和改变人类群体的决策及行为。这种社会影响一方面可能带来积极的应用前景,如在教育场景中促进积极行为的学习等;另一方面也可能引发一些潜在的问题,如在群体决策中导致盲从等。基于此,我们针对人工智能与社会影响这一话题提出了五大问题,供未来研究和政策制定讨论。

第一,算法等其他形式的人工智能是否会产生相似的社会影响?

现有研究大多讨论的是有实体的机器人的社会影响,如机器人通过语言影响人类的决策,无实体的算法是否具有相似的社会影响还缺乏系统探讨。鉴于无实体的算法广泛应用于数据分析、决策支持系统、个性化推荐等领域,其产生的潜在影响可能比有实体的机器人更大。例如,推荐算法可能影响人类的新闻阅读偏好、社交互动等,进而对公众意见和社会行为产生深远影响。通过个性化的内容推送,算法不仅可以增强用户体验,还可能无意中引导用户的选择和判断,形成“回音室效应”,即导致相似的观点不断强化,不同的声音被排除。同时,算法可能通过强化用户已有的偏好来分隔不同的社会群体,从而加剧社会分裂。因此,探讨算法等其他形式的人工智能的社会影响是未来研究和政策制定中一个亟需关注的问题。

第二,人工智能对不同文化背景的人影响如何?

随着人工智能在全球范围的应用,其对不同文化背景中的个体造成的社会影响可能是复杂和多维度的。例如,在权力距离高的国家,人们更习惯于服从权威,可能也会更容易接受人工智能这一新兴“权威”的命令。同时,在全球化过程中,人工智能也可能无意中传播或强化特定文化的价值观和偏见,尤其是当算法的训练数据来源于某一主导文化时。因此,在人工智能应用中为了实现对多元文化的包容,开发者和政策制定者需要共同努力,确保在人工智能技术的开发过程中将文化差异纳入考量,避免产生文化偏见,从而促进社会公平和文化多样性。

第三,人工智能会导致哪些长期社会影响?

由于现有研究在方法上相对单一,目前对人工智能社会影响的理解主要基于有限的人机交互实验,这些实验设计往往无法全面模拟真实世界中人与人工智能的长期互动。随着人工智能深度融入人们的日常生活和工作,人与人工智能的互动会更加频繁,长此以往,人工智能可能会带来人们认知上的改变,进而对其行为产生更深远的影响。例如,机器人所引发的从众行为可能会削弱人的决策能力,长期来看,人类可能将越来越依赖机器人提供的选择和建议,从而在无形中降低自主思考和创造性解决问题的认知能力。随着人工智能技术的不断进步和普及,我们需要认真思考其对人类认知和行为的长期影响。

第四,如何扬长避短,发挥人工智能积极的社会影响?

人工智能技术正在深刻改变人类社会,如何在这一过程中扬长避短,发挥其积极影响尤为关键。一方面,公众、人工智能应用方和政策制定者都要意识到人工智能在人机交互过程中会对人类产生社会影响,进而利用人工智能来引导积极行为,发挥其积极作用。例如,目前人工智能已经在教育领域广泛应用,教育工作者在开展教学时,可以有意识地应用人工智能去影响学生,促使学生习得更多积极行为。另一方面,政策制定者需要警惕那些人工智能更有可能引发社会影响的应用情境,建立明确的规章制度和应用指引,规范人工智能的使用,以确保人工智能在应用过程中对人类群体产生的影响是符合伦理规范的。

第五,人工智能如何对其造成的社会影响承担责任?

鉴于人工智能具有一定的自主性,它是否以及如何对其引发的社会影响承担责任仍是一个亟待解决的复杂问题。有研究发现,当人工智能对他人造成伤害时,人们往往会将责任归咎于使用公司、开发团队及人工智能本身。在这些责任主体中,开发团队通常被认为应该承担最大责任,而人工智能本身应该承担的责任最小。这种责任归属的判定反映了大众对人工智能责任的一般看法。然而,确立一个有效的人工智能责任机制仍充满挑战。未来可能需要对现有的法律和伦理规范进行深入的改革和扩展,以适应人工智能技术的快速发展和普及。此外,随着技术的不断进步和应用领域的拓宽,公众对人工智能责任的看法也可能会发生变化,政策制定者、技术开发者与社会各界需要持续对话和合作,共同探讨和制定公正且有效的责任判定标准和奖惩机制。
总的来说,人工智能可能在人类有意识或者无意识时对其态度、行为、决策施加种种影响,涉及文化、政治、经济等方方面面。因此,深入研究和理解人工智能的社会影响不仅是科技发展的需要,也是社会治理的必要举措。正如霍金教授所说:“强大的人工智能的崛起,可能是人类历史上最好的事,也可能是最糟糕的事,结局尚不可知。”如何通过跨学科合作及多方参与,更好地利用和发挥人工智能积极的社会影响,同时控制其潜在的风险与挑战,确保人工智能与社会价值观的和谐共生,是研究者、管理实践者和政策制定者共同面临的重要问题。


一网打尽系列文章,请回复以下关键词查看:
创新发展习近平 | 创新中国 | 协同创新 | 科研管理 | 成果转化 | 新科技革命 | 基础研究 | 产学研
热点专题军民融合 | 民参军 | 工业4.0 | 商业航天 国家重点研发计划 装备采办 | 摩尔定律 | 诺贝尔奖 | 国家实验室 军工百强 试验鉴定 | 双一流 | 净评估 
前沿科技颠覆性技术 | 仿生 | 脑科学 | 精准医学 | 基因编辑 虚拟现实 | 增强现实 人工智能 | 机器人 | 3D打印 | 4D打印 太赫兹 | 云计算 | 物联网 互联网+ 大数据 | 石墨烯 | 电池 | 量子 | 超材料 | 超级计算机 | 卫星 | 北斗 | 智能制造 不依赖GPS导航 5G | MIT技术评论 | 航空发动机 | 可穿戴 氮化镓 | 隐身 | 脑机接口 | 传感器 | 数字孪生
先进武器无人机 | 轰炸机 预警机 | 运输机 | 直升机 战斗机 | 六代机 网络武器 | 激光武器 | 电磁炮 | 高超声速武器 反无人机 | 防空反导 潜航器
未来战争未来战争 | 抵消战略 | 水下战 | 网络空间战 | 分布式杀伤 | 无人机蜂群 | 太空战 反卫星 混合战 电子战 马赛克战
前沿机构战略能力办公室 | DARPA 快响小组 | Gartner | 硅谷 | 谷歌 | 华为 阿里 | 俄先期研究基金会 | 军工百强
其他主题系列陆整理中,敬请期待……