专栏名称: 唧唧堂
唧唧堂学术管理分享平台,更好的学术阅读与写作!
目录
相关文章推荐
海峡都市报闽南新闻  ·  大反转!即将抵达泉州! ·  昨天  
51好读  ›  专栏  ›  唧唧堂

PNAS:人们在算法中看到更多自己的偏见

唧唧堂  · 公众号  ·  · 2024-05-12 22:17

正文


本期推荐一篇2024年4月发表在PNAS的论文《人们在算法中看到更多自己的偏见》。在人工智能和机器学习迅速发展的今天,算法在我们的日常生活中扮演着越来越重要的角色,从推荐系统到自动决策支持,算法的应用范围不断扩展。然而,这些算法往往基于人类的历史数据进行训练,因此可能不可避免地继承了人类决策中的偏见。如何识别并纠正这些偏见,成为了人工智能领域的一个重要研究问题。

本研究旨在探索人们是否能通过算法看到自身的偏见,并借此纠正偏见。研究团队设计了一系列实验,检验人们对算法和自我决策的偏见感知差异,并探讨算法是否能成为揭示和改正偏见的有效工具。

研究方法上,团队采用了实验心理学的方法论,进行了九个预注册的实验,涉及6175名参与者。这些实验主要通过在线平台进行,参与者被要求评价一系列设定的目标,如Airbnb的房源或Uber的司机。这些目标在某些相关属性(如评级和评论数量)上随机变化,同时在某些潜在的偏见属性(如年龄、性别和种族)上系统变化。实验中设置了多个条件,包括直接将评分归因于参与者自己,以及将评分归因于一个声称基于参与者之前评分训练的算法。实验结束后,参与者需要对他们认为的偏见程度进行评分,使用从1到7的Likert量表。

实验结果显示,与自我判断相比,当决策归因于算法时,参与者更容易察觉到偏见的存在。这一发现表明,算法的决策过程虽然像一个“黑箱”,但它反而帮助人们更客观地看待决策结果,并触发了更多的自我反思和纠正偏见的行为。研究还发现,这种效果在所有参与者中普遍存在,无论他们的种族、性别或年龄。

总之,这项研究揭示了算法不仅可以继承人类的偏见,更可以成为一面镜子,帮助我们看到自身的盲点。通过这种方式,算法有潜力成为促进更公正决策的工具。这对于设计和实施公平的人工智能系统,确保技术进步惠及所有人,具有重要的现实意义。

论文原文:Celiktutan B, Cadario R, Morewedge CK. People see more of their biases in algorithms. Proc Natl Acad Sci U S A. 2024 Apr 16;121(16):e2317602121. doi: 10.1073/pnas.2317602121. Epub 2024 Apr 10. PMID: 38598346; PMCID: PMC11032492.


唧唧堂学院推荐订阅


以下专栏及课程,安卓手机用户可通过下方小程序链接订阅,苹果手机用户请通过文末“阅读原文”链接访问唧唧堂学院H5页面订阅。


论文导读


**心理学**

心理学论文导读会员(年度)

2024心理学论文导读600篇

心理学百篇热门论文导读专栏(2023年第2期)

心理学百篇热门论文导读专栏(2023年第1期)

心理学百篇热门论文导读专栏(2022年第2期)

心理学百篇热门论文导读专栏(2022年第1期)


更多心理学论文导读专栏请访问

唧唧堂学院



方法班课程


AMJ(2022)微观研讨班

计量经济学论文研讨班







请到「今天看啥」查看全文