专栏名称: 新周刊
中国最新锐的生活方式周刊
目录
相关文章推荐
新周刊  ·  重度过敏,席卷新生儿家庭 ·  1小时前  
读者  ·  晚安一句话 ·  昨天  
新周刊  ·  五秒定律,骗了你多少年 ·  2 天前  
51好读  ›  专栏  ›  新周刊

刚学会歧视的AI,就开始PUA我了

新周刊  · 公众号  · 杂志  · 2025-03-18 08:00

正文

图片

图片

事实上,人工智能犹如人类社会的镜子。世界呈现什么样子,算法都会如实反映。更令人担忧的是,受人类偏见影响的AI,很可能会继续强化这些偏见。



作者 | 郭草莓
编辑 | 晏非


早在23年前,导演史蒂文·斯皮尔伯格凭借名为《少数派报告》的科幻电影,“神预言”了我们今天的世界,以及人工智能时代的伦理困境。


影片中,人类凭借三个“先知”机器人预知未来的能力,建立了一套犯罪预防系统。但作为执法者的约翰·安德顿,却被系统预判为“即将行凶的杀人犯”而被迫逃亡。直到他发现所谓“系统”的致命漏洞——三个“先知”看到的未来并非每次都相同,当出现分歧时,就会按少数服从多数原则定案,同时秘密保存一份“少数派报告”。


斯皮尔伯格借电影提出了超脱于时代的拷问:系统虽以“公正”之名运行,但其预测结果是否等同于事实?少数派的抗争是否天然错误,而主流判断是否必然意味着真理?这些问题 ,在今天显得越发尖锐。


(图/《少数派报告》)


如今,人类社会越来越依赖于用“系统”进行决策。


在大洋彼岸的美国,AI算法决定哪些街区会被安排更多巡逻的警察,哪些无家可归的人会更快获得政府的公共房屋,哪些社会群体可以优先注射疫苗…… 《少数派报告》中的预防犯罪系统也已不再只是科幻设定。 AI广泛应用于预测性警务,分析犯罪热点、评估嫌疑人的再犯风险,甚至在某些情况下给出是否应提前干预的警示。


可当越来越多的算法决策取代人工判断时,人们却发现与《少数派报告》高度相似的另一层现实——“先知”并非总是正确,人工智能也不会永远保持客观和公平。


美国法院借助“再犯风险评分系统”量刑,对黑人被告的误判率是白人的2倍;号称5秒匹配求职者的AI招聘系统,却会自动拒绝55岁以上女性和60岁以上男性的求职申请;谷歌图像识别系统曾将黑人程序员标注为“大猩猩”,算法历经8年 迭代,仍无法消除种族识别偏差……


(图/《我,机器人》)


甚至,一次源于偏见的算法失误,足以引发灾难级事故——数年前,荷兰税务系统使用算法识别可能涉及福利欺诈的对象时,错误地将少数族裔低收入群体标记为“高风险”,导致数千人收到错 误罚单,部分受害者因此破产甚至自杀。


这一切都源于AI的偏见。当AI开始决定谁该被监视、谁配获得资源、谁应接受惩罚,普通人该如何直面这个“数字利维坦”?


AI的傲慢与偏见


2016年,英国某智能系统接受测试,当面对“男性是程序员,女性是×××”的句子时,系统暴露出算法偏见的冰山一角,填空答案上赫然显示“家庭主妇”。


八年过去,类似问题并未消退,反而在技术迭代下构筑出更为庞大的系统性偏见。2024年,加州大学伯克利分校哈斯商学院的一项研究结果令人心惊:在被分析的133个行业AI系统中,存在性别刻板印象的占44%,兼具性别与种族双重偏见的占25%。


“人类决策尚有四人对辩的可能,(但)AI不具备(基于)情境(进行)判断的弹性,一旦习得偏见,就会在所有场景中机械化执行,系统性地放大歧视。”清华大学新闻与传播学院教授陈昌凤向《新周刊》阐释道。


AI偏见对人类社会的侵袭,并不难发现。当你要求AI生成“医生与护士”的故事时,算法往往默认医生为男性;让AI绘制“家长做家务”的场景时,画面上大概率会呈现女性形象。如果认为这只是偶然,就恰恰低估了机器偏见对现实生活的 影响。


(图/《银翼杀手2049》)


它们潜藏在你所能接触到的任何角落,同时破坏了社会公平性——亚马逊研发的AI招聘工具在筛选 简历时,将应聘者的“女子学院”经历视为负面指标,以至于曾在女校工作的男性申请者也被误判;国外的一些保险公司或银行用AI去做理赔或者贷款评估时,判断过审与否的标准仅仅是“姓氏”“种族”本身……


追根溯源,AI偏见之所以会产生,还是因为真实世界里的数据“原罪”。


“你喂给AI什么数据,它就产出什么,其认知边界取决于被投喂数据的广度、精度与深度。”中科闻歌董事长王磊向《新周刊》举例称,当语料库中的中文数据不足,模型会产生语种偏见;当投向大模型的特定国家人文社科内容匮乏,文化偏见则滋生。数据局限迫使AI将局部“现实”固化为普世标准,从而导致了机器 认知的缺陷。


(图/《我,机器人》)


更深层的AI偏见还源于人类自身。


复旦大学计算机科学技术学院教授张军平在接受《新周刊》采访时表示:“从数据采集的片面性到算法设计者的潜意识倾向,每个环节都有可能为AI注入偏见基因。”Facebook前工程师就曾承认,其自由派立场导致算法会对保守派信息进行系统性压制。“只要编写算法程序的是人,就会存在风格偏好,哪怕只是一点点的投入都会导致算法出现偏差。”张军平说道。


如今,AI技术伦理问题,正在制造一个个算法茧房。正如美国机会与正义法律咨询公司主任韦弗所担心的,人们可能会陷入一个恶性循环:人类自身偏见影响AI,而AI又反过来强化这些偏见。


算法偏见是人类社会的投射


人工智能的偏见可以被彻底消除吗?


当前,行业内外正通过数据平衡与清洗等手段应对这个问题。欧盟《人工智能法案》强制要求高风险系统植入伦理审查模块;OpenAI通过安全护栏对自杀倾向等敏感话题实施正向引导、动态数据清洗;密歇根大学的研究人员开发了一种算法来纠正医疗数据中的种族偏见……


“应对AI偏见的路径主要集中在三大方向:尽可能全面地覆盖数据;借助指令模板和人类反馈,实现AI和人类价值观的对齐;采用AI对抗AI策略,通过攻击性提问主动暴露系统漏洞。”王磊指出,目前修正AI偏见最好的方式,仍是从数据源头上入手。


然而,数据清洗和多样覆盖并不能根治算法偏见问题。张军平向《新周刊》解释:“当前大模型的TB级训练数据如同信息海洋,彻底清除偏见犹如大海捞针。绝对的‘数据均衡’也只是理论理想,实践中只能追求动态平衡——消除AI偏见(最 有效)的方式既粗暴又低效,(那就是)看见一例消除一例。”


(图/《银翼杀手2049》)


但这种“头痛医头”的修正方式,难以撼动系统深层的认知偏差。人工智能系统常被比作“黑箱”, 其决策机制因算法的复杂性而难以溯源——可能就连设计者自己都很难解释,AI究竟如何通过对多种数据的计算,得出最终决策结果。


专家们坦言:“算法黑箱的不可解读性,正是攻克AI偏见的最大技术瓶颈。”







请到「今天看啥」查看全文