2025年2月4日,欧盟委员会正式发布140页的《欧盟委员会关于禁止人工智能系统实践的指南》,对包括被禁止的人工智能类型进行了详细的说明。
需要注意的是,该类被禁止开发和投入的人工智能规则已于2025年2月2日起生效。
该指南目前仍以草案形式发布,但这是因为正式通过和应用仍有待时日,因为欧盟仍需要用多种官方语言制作译文。
欧洲议会和欧盟理事会于 2024 年 6 月 13 日颁布的第 2024/1689 号条例(欧盟)规定了人工智能的统一规则并修订了某些条例("人工智能法"),该条例于 2024 年 8 月 1 日生效。人工智能法开创性地采取了基于风险的方法,将人工智能系统划分为四个不同的风险类别:
|
|
|
|
|
禁止型AI。在《人工智能法》生效后六个月内生效,即从 2025 年 2 月 2 日起生效
|
|
|
受《人工智能法》第 6 条和附件 I 及 III 要求和义务约束
|
|
|
|
|
|
|
按照梯度生效程序,自 2025 年 2 月 2 日起,《人工智能法案》的第一批关键条款开始适用,包括有关人工智能素养和禁止的人工智能行为的条款。
法案第 5 条列出了构成不可接受风险的被禁止的人工智能行为,包括操纵技术、利用漏洞、社交评分、犯罪风险分析、未经授权的面部识别、情感推断、生物特征分类,以及 "实时 "生物特征识别的某些用途。
|
|
|
|
|
部署潜意识技术超出个人意识范围,或故意采用操纵性或欺骗性技术,旨在或实际造成行为扭曲,导致或合理可能导致重大伤害的人工智能系统
|
|
|
利用因年龄、残疾或特定社会经济状况而产生的弱点,旨在或实际造成行为扭曲,导致或合理可能导致重大伤害的人工智能系统
|
|
|
基于社会行为或个人或人格特征对自然人或人群进行评估或分类的人工智能系统,其社会评分在来自不相关社会背景的数据处理时,导致不公平或不合理的不利待遇
|
|
|
仅基于画像或人格特征对人们实施刑事犯罪的风险进行评估或预测的人工智能系统;除非是为了支持基于与犯罪活动直接相关的客观且可验证事实的人工评估
|
|
|
通过从互联网或闭路电视(CCTV)镜头中无针对性抓取面部图像来创建或扩展面部识别数据库的人工智能系统
|
|
|
在工作场所或教育机构中推断情绪的人工智能系统;医疗或安全原因除外
|
|
|
根据生物特征数据对人进行分类,以推断或推测其种族、政治观点、工会成员身份、宗教或哲学信仰、性生活或性取向的人工智能系统;对合法获取的生物特征数据集进行标记或筛选(包括执法领域)除外
|
|
|
在公共场所用于执法目的的实时远程生物特征识别人工智能系统;除非是为了有针对性地搜寻特定受害者、预防包括恐怖袭击在内的特定威胁、搜寻特定嫌疑人的犯罪行为(进一步的程序要求,包括授权等,在《人工智能法》第 5 (2 - 7) 条中概述)
|
而法案第 4 条规定了任何提供或操作人工智能系统的人都必须具备人工智能专业知识,要求人工智能系统提供商和部署商确保员工在技术知识和人工智能系统使用环境的基础上得到充分的培训和信息。
除通用人工智能模型和处罚条款将于 2025 年 8 月 2 日起执行外,《人工智能法》的其余条款将于 2026 年 8 月 2 日起执行。
欧盟委员会的指南不具有强制约束力,欧洲联盟法院("CJEU")可能是对人工智能法案的权威解释机构。
根据指南,人工智能法禁止的做法涉及特定人工智能系统的上市、投入使用或使用。在欧盟市场上市的人工智能系统是"首次在欧盟市场上提供的人工智能系统"。"提供"被定义为在商业活动过程中向欧盟市场供应系统"以供分发或使用,不论是收费还是免费"。提供人工智能系统的方式包括通过应用程序接口(API)、云端、直接下载、实体副本或嵌入实体产品等。
指南认为,虽然《人工智能法案》没有明确定义"使用"人工智能系统,但应该以广义来理解,涵盖系统在投放市场或投入使用后其生命周期中的任何时刻的使用或部署。例如雇主用于推断工作环境中情绪的 AI 系统被禁止使用。
人工智能法案将人工智能系统的操作者分为不同类别:提供商、部署者、进口商、分销商和产品制造商,目前的指南将仅关注提供商和部署者。但需要注意的是,人工智能法明确排除了"仅出于军事、国防或国家安全目的而在市场上投放、投入使用或使用的人工智能系统"的禁止适用,因此,当有相关实体作为上述目的下的承包的私营运营商时,该类运营商将得以豁免。
禁令适用于任何 AI 系统,无论其是"专属用途"还是"通用用途"(即可服务于各种目的)的人工智能类型,或者是直接使用还是集成到其他 AI 系统中。因此,每个运营商都应根据其在价值链中的角色和对系统的控制权采取适当措施,确保 AI 系统的负责任和安全提供及使用,在风险与收益之间达到 AI 法案的双重目标。