本文介绍了欧洲议会研究服务处以及《人工智能法案》和《通用数据保护条例》中关于算法歧视的问题。欧洲议会研究服务处为欧洲议会的议员等提供政策研究等服务。《人工智能法案》旨在促进可持续发展的人工智能,减少歧视和偏见,但在实施过程中与《通用数据保护条例》存在法律不确定性。文章提到了一些场景,如生成式人工智能系统、自动驾驶汽车等可能出现歧视情况。《人工智能法案》允许处理特殊类别的个人数据以识别和避免歧视,但必须符合《通用数据保护条例》的要求。目前存在挑战和不确定性,可能需要立法改革或进一步指导来解决。
《人工智能法案》允许处理特殊类别的个人数据以识别和避免歧视,但必须遵守《通用数据保护条例》的要求。目前存在挑战和不确定性。
可能需要立法改革或进一步指导来解决这些问题,比如对《通用数据保护条例》进行改革,或者制定进一步的指导方针。
简介:European Parliamentary Research Service 即欧洲议会研究服务处,是为欧洲议会的议员、各委员会及其他相关机构提供政策研究、信息收集整理、撰写报告等服务,辅助议会立法和决策的机构。
自 2024 年 8 月《人工智能法案》(AI Act)生效以来,一个悬而未决的问题是它与《通用数据保护条例》(GDPR)之间的相互作用关系。
《人工智能法案》旨在促进以人为本、值得信赖且可持续发展的人工智能,同时尊重个人的基本权利和自由,包括他们保护个人数据的权利。
《人工智能法案》的主要目标之一是减少在 “高风险人工智能系统” 的开发、部署和使用过程中出现的歧视和偏见。
为实现这一目标,该法案允许在一系列旨在识别和避免使用此类新技术时可能出现的歧视的条件(例如,隐私保护措施)的基础上,对 “特殊类别的个人数据” 进行处理。
然而,《通用数据保护条例》在这方面似乎限制更为严格。由此产生的法律不确定性可能需要通过立法改革或进一步的指导意见来加以解决。
一些人工智能系统可能会造成歧视,并损害个人的基本权利。
《人工智能法案》旨在解决上述问题。为确保人工智能系统中的偏见检测和纠正,《人工智能法案》第 10 条第(5)款允许在 “为确保对高风险人工智能系统进行偏见监测、检测和纠正这一目的,且在严格必要的范围内” 处理特殊类别的个人数据,但以采取适当保障措施尊重基本权利为前提条件。
特殊类别的个人数据这一概念在《通用数据保护条例》第 9 条中有定义(包括种族或民族出身、政治观点、宗教或哲学信仰、工会会员身份、基因数据、生物识别数据、健康数据、性生活或性取向)。一些学者指出,要检测在就业领域使用的算法是否存在基于种族的歧视,原则上,相关机构需要了解求职者的种族信息。
《人工智能法案》第 10 条第(5)款仅适用于高风险系统。该法案采用了 “基于风险的方法”,即根据人工智能系统对个人基本权利和自由构成的风险程度对其进行分类。在确定一个系统是否属于高风险系统时(《人工智能法案》第 6 条),重点在于特定系统的范围及其所执行的具体任务。
要处理特殊类别的个人数据,必须遵守《通用数据保护条例》第 9 条中列出的特定理由(例如,数据主体的明确同意)。在适用《人工智能法案》第 10 条第(5)款时也必须遵守这些理由,因为该条款属于《通用数据保护条例》第 9 条的适用范围。
该法案明确规定,当《人工智能法案》与《通用数据保护条例》发生冲突时,《通用数据保护条例》优先适用,并明确指出《人工智能法案》的条款不得影响《通用数据保护条例》的实施。
一些人认为,根据《通用数据保护条例》中 “重大公共利益理由”,依据《人工智能法案》第 10 条对个人数据的处理也可能是被允许的。实际上,《通用数据保护条例》第 9 条第(2)款第(g)项允许在以下情况下处理特殊类别的数据:
“基于欧盟或成员国法律,出于重大公共利益的原因而有必要进行处理,且该处理应与所追求的目标成比例,尊重数据保护权的本质,并规定适当且具体的措施来保障数据主体的基本权利和利益。”
在这种情况下,《人工智能法案》将作为相关的欧盟法律,而打击歧视将是相关的公共利益。