专栏名称: 新技术法学
究新技术法理,铸未来法基石
目录
相关文章推荐
为你读诗  ·  活在自己喜欢的状态里,重新出发 ·  14 小时前  
羊城晚报  ·  深度专访 | ... ·  15 小时前  
王开东  ·  少年情怀总是诗 ·  昨天  
王开东  ·  少年情怀总是诗 ·  昨天  
为你读诗  ·  中国书法的智慧所在,不止坐落笔端 ·  2 天前  
为你读诗  ·  好事会随春天到来,兑现你对它的等待 ·  2 天前  
51好读  ›  专栏  ›  新技术法学

欧盟为何坚持“基于风险”的人工智能监管方法? | Regulation & Governance

新技术法学  · 公众号  ·  · 2025-02-17 07:12

正文


欧盟为何执着于“基于风险的”人工智能监管方法?


摘要

欧盟委员会在人工智能领域率先推动强制性监管,推出《人工智能法案》提案,其监管战略的核心是一种名义上“基于风险”的方法,旨在使其干预措施与风险水平相称。然而,无论是风险基础理论的标准解释,还是组织寻求合法性的理论,都未能完全解释欧委会为何异常执着于这一方法。本文通过三方面的贡献回应了这一困境:首先,本文在新兴技术监管的 建构主义 和批判性政治经济学框架下,丰富了基于风险监管的学术研究;其次,本文在文化政治经济学框架内概念化了风险分析在监管领域的角色,即风险分析作为一个强大的认知工具,被欧委会用于追求其市场愿景;最后,本文通过对大量文件和专家访谈的定性分析,发现欧委会利用风险分析方法,将涉及政治价值观冲突的人工智能应用定义为“不可接受风险”,并严格控制“高风险”人工智能系统,使布鲁塞尔能够在全球人工智能竞争中保持优势。



作者简介:

Regine Paul. 卑尔根大学政府系



文献来源

Paul, R. (2023). European artificial intelligence “trusted throughout the world”: Risk‐based regulation and the fashioning of a competitive common AI market. Regulation & Governance , rego.12563. https://doi.org/10.1111/rego.12563


本文作者: Regine Paul


一、前言

欧盟委员会人工智能监管提案的核心是一种“基于风险”的监管方法("risk-based" approach to regulation, RBR),即依照对潜在不利影响的风险评级,采取不同级别的干预措施。在其《人工智能法案》中,欧盟区分了不可接受风险、高风险、低风险和无风险的人工智能系统,并依次采取从完全禁止到自由放任的不同措施。欧盟委员会称,RBR法是“最有效”的方法。然而, 法案起草者承认AI相关的风险分析“在任何科学方法上都是不系统的”,那么为何欧盟要坚持使用RBR法?本文揭示了欧盟委员会如何将RBR法作为一种认知工具,以服务其对欧盟作为全球人工智能竞争力市场的愿景。



二、对风险分析法为“理性选择”的质疑

文章首先质疑了风险分析法是欧盟“理性选择”的结果。 “理性选择”说认为,监管者的理性在决策过程中占据主导,风险分析能够作为一种中立的科学认识论,实现利益与风险的最优平衡。 但在欧盟《人工智能法案》的案例中,该观点并不适用。 第一,从经验出发,欧盟人工智能监管既未引入全面的风险分析方法,也未创建类似于欧洲食品安全局或欧洲药品管理局的强有力独立风险评估单位,因此不符合监管机构理性。 第二,从认识论出发,人工智能监管处于早期阶段,既无监管机构,也无稳定规则,此时欧盟的风险分级将使人们继续倾向关注“已看到问题的地方”,影响对风险的正确认识。 第三,从建构主义出发,风险分析首先不应被概念化为客观科学工具,而是监管机构在面临环境复杂和不确定性时用于确定自己身份、规范和目标的认知工具。

文章进而将欧盟人工智能监管手段与其全球经济竞争目标相关联,指出许多研究把欧盟人工智能监管置于全球经济竞争的语境之下,即认为,为避免在全球竞争中落后、保证欧盟全球市场优势,欧盟委员会将欧 盟共同市场打造为 “道德的”和“可信任的”人工智能产品供应者,对内寻求保护其公民与企业避免因全球化产生损失,对外推广其监管标志以形成(对自己)更“公平”的竞争环境。


三、 分析路径与方法
为了解释欧盟委员会对RBR方法异常执着的情况,本节引入文化政治经济学(Cultural Political Economy, CPE)作为概念分析框架。文化政治经济学研究认为,在面对一个难以理解的复杂和不确定的世界时,行动者以“符号化”和“结构化”两种模式来简化复杂,其简化选择的机制包括建构、话语、技术和机构选择四种。本文认为,欧盟采取RBR方法体现出一种技术选择性(technological selectivity),它将RBR方法呈现和合法化为一种科学认知工具,以证明政治监管决策是客观且值得信任的。本文进而研究:RBR方法如何被欧盟委员会(这一权力监管机构)作为一种认知工具?RBR方法如何借鉴了(欧盟有关)共同市场的早期话语和监管表述?RBR方法如何最终塑造欧盟人工智能共同市场?

本文使用逐步实证分析方法。 首先,为探究 符号化 semiosis ),文章重建了 RBR 方法背后的含义集群( clusters of meaning )。 其次,为探究 结构化 structuration ),文章重建了不同风险的符号差异及对于共同人工智能市场的相关愿景与具体监管工具的互动,并探究其如何形塑国家、行业和消费者间的互动。 最后,为将此分析置于人工智能监管的宏观政治经济背景下,文章探讨了在欧委会追求共同欧洲人工智能市场过程中, 3 个人工智能风险层级的具体符号化和结构化表述的个别和联合作用。

文章将文本进行量化统计,以辅助其定性研究。 数据来源于 11 份政策文件、 1 份对法案草案的官方阐释转录文件和 10 份对参与法案制定专家的访谈。 作者使用定性数据分析软件( MaxQDA )对主要数据源进行了编码,首先编码了对 / 最小风险 高风险 不可接受风险 场景的表述,其次针对人工智能监管的 背景条件 共同人工智能市场的愿景 以及具体的 监管选择 进行了编码,以及对风险等级与欧盟委员会对共同人工智能市场的愿景以及具体监管选择进行交叉编码。


四、实证分析结果
欧委会的监管提案区分了三种不同风险级别,并引入相应的监管措施,强调其监管方式是与风险“相称”的。本节的分析尝试超越欧盟名义上的“监管相称”修辞,揭示出欧盟针对三个风险级别有关其监管背景、目标、风险认知、共同市场愿景、监管措施的不同表述(如表1所示),探讨了风险评估工具如何被欧委会用于追求其未来人工智能共同市场愿景。

第一,对于“不可接受”级别的人工智能系统,欧盟强调监管对于核心“权利”和“民主价值观”的维护,而弱化对 创新”“法律确定性”和“共同市场”的关注。然而,文章提出, 将部分人工智能采用划定为具不可接受风险,纯粹是未经风险评估的价值陈述和政治判断。此类话语和监管的更多是一种象征性的姿态,以展现欧盟与美国、中国(规范)的区别。
第二,对于“高风险”级别的人工智能系统,欧盟的符号化划分更为清晰狭窄,主要涉及防止对健康、安全等基本权利的侵犯。 文章认为,虽然RBR方法有助 于在基本权利保护与创新增长间建立平衡,但欧盟的监管方式更倾向于后者,试图最小化监管所造成的损失。 由于欧盟要求进入欧盟市场的人工智能产品具备“法律确定性”且“值得信赖”,并强调公共部门能够促进人工智能安全采用, 公民将减少对人工智能的抵触情绪 此外,欧委会还认为,严格监管能够使“道德的”和“可信赖的”成为欧洲人工智能产品的代名词,使其得以占领全球高质量细分市场

第三,对于“低风险”或“无风险”级别的人工智能系统,欧盟基本采取了一种放任自流的方法,将对其监管正常化为消费者保护与权益问题。 对于垃圾邮件过滤器等应用,只要其不违反现行保护消费者的法规,即可继续自由流通于欧盟单一市场; 对于聊天机器人等应用,则需“明确告知用户他们正在与机器交互”。 文章指出, 欧盟对低/无风险人工智能系统的监管实则是为消费者和用户创造“信任”,以鼓励在其共同市场上增加人工智能发展与部署。








请到「今天看啥」查看全文