专栏名称: 华政中外法律文献中心
本中心借助互联网等信息技术和高效便捷的机制安排,以全方位的服务模式向国内外各界、各层次用户提供值得信赖的中外文法律文献资源查询、借阅、咨询和培训等多模块的服务,为中外法学教育和法律实践提供坚实的文献资源保障。
目录
相关文章推荐
国泰君安证券研究  ·  国君每日一图|粮食安全,种子先行 ·  3 天前  
天风研究  ·  天风·固收 | 如何看待理财估值问题? ·  4 天前  
华泰睿思  ·  华泰 | 保险:商保、医保发展的全球经验 ·  5 天前  
51好读  ›  专栏  ›  华政中外法律文献中心

学术 | 丁晓东:人工智能风险的法律规制——以欧盟《人工智能法》为例

华政中外法律文献中心  · 公众号  ·  · 2024-08-23 17:34

正文

点击上方“蓝字”关注我们



作者:丁晓东

中国人民大学法学院 教授

来源:《法律科学》2024年第5期



目次


引言

一、欧盟《人工智能法》的风险规制进路

二、风险分类规制的难题

三、风险分级规制的难题

四、生成式人工智能与大模型

五、人工智能风险规制的原理与制度

结语


摘  要:人工智能法规制的重点已从替代问题转向风险问题。以欧盟《人工智能法》为代表的立法将风险分为产品风险与基本权利风险,将风险级别分为禁止性风险、高风险、有限风险和最小风险,并对生成式人工智能与大模型作出特殊规定。此种分类在具有合理性的同时也引发了内在紧张关系,此种分级存在不科学与僵化的困境,对生成式人工智能与大模型的规制也不尽合理。欧盟《人工智能法》的困境根源在于追求对人工智能风险的统一化规制。我国人工智能立法不应简单效仿欧盟,应坚持对人工智能风险的场景化规制,将人工智能应用者或其构成产品作为风险规制的对象。对人工智能系统及其提供者,应注重国家安全、重大公共安全规制与其他领域的自我规制。人工智能风险规制应区分市场主体与公权力机构主体,注重用侵权法对市场化的人工智能风险进行事后规制。

关键词:人工智能立法;产品安全;基本权利;生成式人工智能;场景化规制



引  言


随着人工智能的快速发展和人们对其应用风险担忧的持续增加,各国法律与制度对人工智能问题的回应逐渐从“替代”与“辅助”议题转向“风险”议题。在早期的“替代”与“辅助”议题中,法律主要关注人工智能替代或辅助人类决策所带来的种种问题。例如人工智能能否替代或辅助人类进行司法审判;自动驾驶替代或辅助人类驾驶后,汽车制造商和人类驾驶员之间的责任如何分配。“风险”议题则关注法律如何应对人工智能带来的一般性风险。近年来,美国商务部发布的《人工智能风险管理框架》(AI Risk Management Framework)就以风险作为人工智能治理的核心;新加坡的《模范人工智能治理框架》(Singapore Model AI Governance Framework)也将风险视为人工智能治理的主要议题。全球最受关注的人工智能治理法案,当属采取风险规制方案的欧盟《人工智能法》(EU AI Act)。自从欧盟启动人工智能立法程序,并在2021年发布欧盟委员会版本《人工智能法》草案以来,这一立法就受到全球的高度关注。欧盟最终在2023年底达成了对这一法案的原则性共识,并在2024年通过且形成了法案的最终文本。作为全球首部综合性的人工智能立法,欧盟《人工智能法》将对全球人工智能的发展、治理和立法产生重大影响和示范效应。正如“布鲁塞尔效应”(Brussel Effect)所表明,欧盟的立法不仅可能对进入欧盟市场的企业产生影响,而且常常凭借其影响力引领全球立法与治理。对欧盟《人工智能法》的研究具有立法实践与法律理论上的双重意义。就立法实践而言,我国数字领域的立法常常受到欧盟立法的影响,例如我国《个人信息保护法》就深受欧盟《一般数据保护条例》的影响。在人工智能领域,我国需要密切关注欧盟的人工智能立法,对其进行深入研究和反思,唯此才能合理扬弃,选择适合中国战略的人工智能立法道路。就理论而言,对欧盟《人工智能法》进行研究有利于深化数字时代的风险规制研究。面对人工智能等新技术快速变化带来的风险,法律应当以何种原理与制度进行回应?
本文的分析以新出台的欧盟《人工智能法》为基础,同时参照2021年欧盟委员会版本的《人工智能法》草案、欧盟(部长)理事会的“一般进路”(general approach)修改意见、欧洲议会的“修正案”(Amendment)修改意见。在行文结构上,论述如下:(1)欧盟《人工智能法》的风险进路;(2)欧盟《人工智能法》中的风险分类——产品风险与基本权利风险;(3)欧盟《人工智能法》中的风险分级与规制问题;(4)欧盟《人工智能法》中的特殊风险问题——生成式人工智能与大模型问题;(5)提出更合理的人工智能风险规制原理与制度;(6)结语部分对数字时代的风险规制问题进行反思。

一、欧盟《人工智能法》的风险规制进路


欧盟《人工智能法》采取了风险分级的进路,除了单列的通用人工智能系统,其将人工智能系统分为禁止性风险(prohibited - risk)、高风险(high - risk)、有限风险(limited - risk)和最小风险(minimal - risk)四类。
(一)禁止性风险
顾名思义,禁止性风险指的是欧盟《人工智能法》所禁止的一系列人工智能实践产生的风险。欧盟《人工智能法》第二章对此作了详细规定。具有禁止性风险的人工智能系统主要包括:影响个人潜意识、危害弱势群体、社会评分、以刑事执法为目的的风险评估、通过随机的图像抓取创建或扩展面部识别数据库、情绪推断、通过生物识别系统推断个人敏感信息、在公共场所使用“实时”远程生物识别系统进行执法。除非满足例外规定,欧盟不允许属于禁止性风险的人工智能系统被投放市场、投入服务或使用。具体而言,第一类所谓影响个人潜意识的情形,是指在“人的意识之外部署潜意识技术,或有目的的采用操纵或欺骗的技术,其目的或效果是通过明显损害个人做出决定的能力,实质性地扭曲个人或群体的行为,从而导致个人做出本不会做出的决定,对个人、他人和群体造成或可能造成重大伤害”。第二类所谓危害弱势群体的情形,是指人工智能系统“利用自然人或某一特定群体因其年龄、残疾、特定社会、经济状况而存在的任何脆弱性,目的或效果是实质性地扭曲该人或与该群体有关的人的行为,从而对该人或他人造成或有合理可能造成重大伤害”。第三类进行社会信用评分的情形,是指“根据个人的社会行为或已知、推断、预测的人格特征,在一定时期内对自然人或群体进行评估或分类,并给出社会评分”,且“对某些自然人或其整个群体产生有害或不利待遇”,同时此种待遇的社会背景“与最初生成或收集数据的背景无关”或此种待遇“是不合理的或与其社会行为或其严重性不相称”。第四类为以刑事执法为目的的风险评估,是指“对自然人进行风险评估,以评估或预测自然人实施刑事犯罪的风险,评估的唯一依据是对自然人的画像或对其人格特征和特点的评估”。第五类通过随机的图像抓取创建或扩展面部识别数据,是指“通过从互联网或闭路电视录像中无针对性地抓取面部图像,创建或扩展面部识别数据库”。第六类是情绪推断,具体指“推断自然人在工作场所和教育机构中的情绪”。第七类通过生物识别系统推断个人敏感信息的情形,具体是指“根据生物识别数据对特定自然人进行分类,以演绎或推断其种族、政治观点、工会会员身份、宗教或哲学信仰、性生活或性取向”。第八类是为执法而使用“实时”远程生物识别系统的情形,是指在公众可及的空间中将一个人的生物识别数据与参考数据库中包含的生物识别数据进行实时比较。上述禁止性的人工智能实践包含多项以公共利益为目的的例外情形。
(二)高风险
高风险的人工智能系统是指对个人健康、安全与基本权利产生高风险的人工智能系统。欧盟《人工智能法》中的高风险系统包括两类:第一类是产品类的人工智能系统,如果该类系统属于现行欧盟产品安全法规定的产品,或者是此类产品的安全组件,则该系统是高风险系统;第二类是独立运行的人工智能系统,如果该类系统对公民的基本权利造成风险,则此类系统属于高风险。这些高风险情形主要在欧盟《人工智能法》附件三中进行了列举:包括应用于生物识别、关键基础设施、教育和职业培训、就业、工人管理和自营职业机会、获得和享受基本的私人服务和公共服务及福利、执法、移民、庇护和边境管制管理、司法和民主领域的人工智能系统。欧盟《人工智能法》进一步规定,欧盟委员会可以更新附件三,如果特定人工智能系统对基本权利、健康和安全造成的风险高于附件三所列举的系统,则欧盟委员会有权通过授权立法的方式将此类系统纳入附件三的范围,反之,欧盟委员会也有权通过授权立法的方式将对基本权利、健康和安全不再构成显著风险的人工智能系统剔除出附件三的范围。此外,欧盟委员会也可以通过发布指南、授权立法的方式,对虽然属于附件三提及的人工智能系统,但未对安全、健康和基本权利造成高风险的情形予以明确、添加或删除。
针对高风险人工智能系统,欧盟《人工智能法》首先提出了一系列事前规制义务:包括建立风险管理系统、数据治理、编制和更新技术性文件、记录保存、透明度和向部署者提供信息、人为监督、准确性、稳健性与网络安全保障。该法第9条规定,高风险人工智能应当“建立、实施、记录和维护与高风险人工智能系统相关的风险管理系统”,并“定期进行系统性地评估与更新”。该法第10条规定,用于高风险人工智能训练、验证和测试的数据集应受制于适当的数据治理和管理措施,具有相关性、代表性、准确性和完整性,考量系统使用的特定地理、背景、行为或功能环境,并允许为偏见检测、侦测、预防和缓解之目的处理特殊类别的个人数据。该法第11条规定,高风险人工智能在投放市场或投入服务之前,应当编制技术性文件并实时更新,以证明其满足欧盟《人工智能法》的要求,并向各国主管部门和被通知机构(notified bodies)提供所有必要信息。该法第12条规定,高风险人工智能在系统运行时应当具备“自动记录事件(‘日志’)的能力”,确保人工智能“具有一定程度的可追溯性”。该法第13条规定,高风险人工智能系统的设计和开发应“确保其操作足够透明,以便部署者能够解释系统的输出结果并加以适当使用”。该法第14条规定,高风险人工智能系统应保证“自然人在其使用期间能够对其进行有效监督”。该法第15条规定,高风险人工智能系统的设计和开发应当“具有合理的准确度、稳健性和网络安全水平”。欧盟《人工智能法》还对高风险人工智能系统进行了事中与事后规制。高风险人工智能系统的提供者应建立与人工智能技术的性质、高风险人工智能系统的风险相称的“上市后监测系统”,并记录人工智能系统的风险,以评估此类系统是否持续符合欧盟《人工智能法》的要求。当高风险人工智能系统的提供者发现任何“严重事件”时,他们必须向各国市场监管机构报告。市场监督机构如果认为人工智能系统不符合欧盟《人工智能法》的要求,则可以要求人工智能系统的相关操作方采取一切适当的纠正措施以使人工智能系统符合要求,包括从市场上撤回人工智能系统,或在其可能规定的期限内召回人工智能系统,并通知相应的被通知机构。欧盟《人工智能法》将以人工智能系统为中心的多个义务主体统称为操作方,包含提供者、产品制造商、部署者、有权代表人、进口商和分销商。有关高风险人工智能系统的合规要求主要针对人工智能的提供者。该法第16条至第22条分别规定了高风险人工智能系统提供者的一系列义务,包括建立质量管理体系、文件保存、自动生成日志、纠正措施与提供信息、与有权机构进行合作、在欧盟指定有权代表人的义务。对于欧盟“新立法框架”覆盖的产品(包含机械、玩具、娱乐船舶和个人船舶、升降机和安全部件、爆炸性环境的设备和保护系统、无线电设备、压力设备和索道装置),如果高风险人工智能系统是此类产品的安全组件,且此类产品的制造商以自己的名称或商标将高风险人工智能系统投入市场,或者在投入市场后以自己的名称或商标将高风险人工智能系统投入服务,则上述产品的制造商应被视为高风险人工智能系统的提供者。当经销商、进口商、部署者及其他第三方在已投放市场或投入服务的高风险人工智能系统上冠以自己的名称或商标,或对高风险人工智能系统做实质修改,修改非高风险人工智能系统的预期用途,使修改后的人工智能系统依然符合或开始符合高风险标准时,他们也应当作为高风险人工智能系统提供者承担相关义务。欧盟《人工智能法》也规定了其他主体的若干义务,涉及有权代表人、进口商、分销商和部署者。其中,有权代表人、进口商和分销商主要负责确认提供者履行了其各项义务、确保运输和保存的质量、保存与披露特定文件、与有权机关展开合作、采取纠正措施等。高风险人工智能系统的部署者应当确保采取适当的技术和组织措施,以按照系统所附的使用说明使用这些系统;确保由自然人进行监控;确保输入数据与高风险人工智能系统的预期用途相关且具有足够的代表性;根据使用说明监控高风险人工智能系统的运行,并在必要时向供应商提供信息;保存自动生成的日志等。
(三)有限风险与最低风险
有限风险的人工智能是对用户或消费者构成一定风险的系统,例如提供生成内容或聊天机器人服务的人工智能。对于此类系统,欧盟《人工智能法》主要规定了提供者的透明性义务。人工智能系统的提供者“应确保旨在与自然人互动的人工智能系统的设计和开发方式使相关自然人被告知他们正在与人工智能系统互动,除非考虑到使用的环境和背景,从一个被合理告知的、具有观察力和谨慎的自然人的角度来看,这是显而易见的”,且“应确保人工智能系统的输出结果以机器可读的格式标示,并可检测出是人为生成或操纵的结果”;人工智能系统的部署者则应对暴露在情绪识别系统或生物识别系统中的自然人予以告知,对深度伪造内容(包括图像、音频和视频)的人工属性与操纵属性加以披露;如果出于公共利益的需要,人工智能系统通过产生文本的方式来履行告知义务,则此种人工智能系统所产生的文本也需要满足上述披露要求。
最低风险的人工智能系统是指那些不构成风险或风险可忽略的系统,例如用于娱乐或个人目的的系统。对于最低风险的人工智能系统,欧盟《人工智能法》并无强制性的规定,主要通过自愿性的行为准则和最佳实践加以约束。该法第95条规定,人工智能办公室和成员国应鼓励并推动行为准则的制定,促进非高风险的人工智能系统自愿适用高风险人工智能系统所面临的部分乃至全部法定要求,促进所有人工智能系统都自愿适用更高风险等级的人工智能系统所面临的部分乃至全部法定要求。该法第66条规定,欧盟人工智能委员会“应在成员国之间收集和分享技术与规制技巧以及最佳实践”。

二、风险分类规制的难题


欧盟《人工智能法》虽然对人工智能系统的风险级别进行统一规定,但却区分了两类不同的风险:产品风险与基本权利风险。将两种不同类型的风险纳入同一法案中规制,既反映出欧盟《人工智能法》内部的紧张关系,也反映出欧盟在人工智能立法方面的相对实用主义立场。
(一)二元分类及其批评
在关键性问题的评估上,欧盟《人工智能法》对产品类风险与基本权利型风险采取不同的评估方法。除非人工智能系统通过“协调标准”或“共同规格”获得关于符合性的推定,否则高风险人工智能系统在投放欧盟市场前,必须经过符合性评估。产品类人工智能系统或产品组成部分的人工智能系统,如果此类产品已经受到欧盟的安全性监管,则相应的人工智能系统需要受到独立第三方机构的评估并获得这类机构颁发的认证证书,才能进入欧盟市场。欧盟《人工智能法》将这类第三方机构称为“被通知机构”,这类“被通知机构”由欧盟各国的“通知机关”设立并对其进行评估、委任和监督。相反,对于那些“主要涉及基本权利”的独立人工智能系统,除了“远程生物识别系统”之外,欧盟《人工智能法》要求提供者进行基于内部控制(internal control)的符合性评估,并不要求独立第三方机构进行评估。换句话说,独立人工智能系统的风险认定将主要由提供者自身来决定。不过在自我评估之后,人工智能系统的提供者如果认定此类系统属于高风险,则应将其登记在欧盟委员会管理的数据库系统中。
欧盟《人工智能法》的“解释性说明”给出了二元区分产品类风险与基本权利风险的理由。一方面,对于产品或产品组成部分的人工智能系统,例如机械、玩具、医疗器械等,欧盟的“新立法框架”已经对此类产品建立了监管体系。此类人工智能需要首先遵守“新立法框架”下的产品责任规定。除此之外,这类人工智能系统也需要遵守欧盟《人工智能法》的规定。欧盟《人工智能法》指出,采取这种“产品责任+”的立法模式,与欧盟“现有产品安全立法一致”,保持了欧盟产品监管的连续性。另一方面,对于影响基本权利或附件三所述的独立的高风险人工智能系统,采取自我评估的方式既有利于平衡人工智能的发展与规制,也与欧盟各国的监管能力相适应。欧盟《人工智能法》的“解释性说明”中提到:“人工智能行业非常具有创新性,而且评估专业知识现在才刚刚积累”。如果要求独立人工智能系统也进行第三方评估,则不仅可能阻碍人工智能系统的创新,而且可能得出各类非专业性的外行评估结论。相较而言,“通过内部检查进行全面的事前符合性评估,加上强有力的事后执行”,可以对独立的高风险人工智能系统进行合理的风险控制。
欧盟《人工智能法》对产品风险与基本权利风险区分规制的二元框架曾经引发了一系列批评。例如在草案发布阶段,有欧洲学者认为,欧盟《人工智能法》草案“没有提供足够的基本权利保护,也没有采取足够多的措施来维护法治和民主,因此未能确保其人工智能立法具有法律公信力”。有的欧洲学者则对欧盟《人工智能法》未来能否影响全球的人工智能立法提出了质疑,认为这一立法不仅无法发挥类似欧盟《一般数据保护条例》(GDPR)的布鲁塞尔效应,甚至可能产生布鲁塞尔负面效应,减弱欧盟政策的全球影响力。来自欧盟的民间社会组织认为,欧盟《人工智能法》草案将基本权利放置在次于产品安全的位置,并且缺乏对基本权利的保护和救济机制,这与欧盟的基本价值立场不一致。美国学者也对欧盟《人工智能法》草案的风险分类表示不解。科罗拉多大学法学院的玛戈特·卡明斯基教授指出,《人工智能法》草案对于涉及基本权利风险的人工智能的规制“很奇怪”地要比对产品安全的规制更“宽松”。针对这些批评,欧盟及其相关机构进行了回应,提出强化对基本权利的保护措施。例如欧洲议会提出的修正案增加了受高风险人工智能系统影响的个体的解释权,将“民主”“法治”列入需要保护的价值观。由27个欧盟成员国和美国、加拿大、日本等19个其他成员国组成的欧洲委员会(Council of Europe , CoE)成立了相关委员会,并提出了《人工智能、人权、民主和法治公约》(AI , Human Rights , Democracy , and the Rule of Law)的“零草案”(Zero Draft)。与欧盟《人工智能法》草案以产品责任为重心不同,该法案以基本权利保护为重心,强调对“平等、不歧视、人的尊严、隐私、问责制、透明度和监督与安全创新,以及包容性民主进程、保护公众健康和环境的必要性”的保护。该法案还引入了“人权、民主和法治风险与影响评估”(Human Rights , Democracy and the Rule of Law Risk and Impact Assessment , HUDERIA)的方法,通过此类评估,该法案试图为人工智能风险提供“明确、具体和客观的标准”,以确定人工智能系统是否可能“对保障人权、民主运作和法治构成重大风险”。经过欧盟内部多个组织和机构的呼吁,最终版本的《人工智能法》对部署者施加了“基本权利影响评估”的义务。除少数例外情形以外,如果部署者是公法所管辖的机构,或是提供公共服务的私营实体,或是部署用于征信、保险评估和定价的人工智能系统的主体,此类部署者就应在部署高风险的独立人工智能系统之前实施此种评估。
(二)二元分类的合理性与矛盾性
欧盟《人工智能法》规定的两类风险的确存在重大差异,且难以进行直接协调。有学者指出,产品风险具有“计算性”“概率性”“离散性”“单一维度性”四重特征。首先,该类风险产生的不良后果是对个人、群体或环境造成可测量严重程度的伤害;其次,该类风险是对给定事件发生的可能性的估计;再次,该类风险与可能发生的特定不良事件相关;最后,该类风险可以用相同的伤害指标来描述。而基本权利的风险则与上述风险存在区别。侵害基本权利的风险往往被认为是对一个社会法秩序的侵害,其损害往往难以计算。即便不考虑其发生概率,基本权利的风险对个案的侵害也会被认为具有整体性影响,而且其维度往往不能简化或通约为经济性损害。如果说产品风险类似于一种市场环境下的功利性计算,则基本权利的风险更接近于特定政治与文化背景下的价值判断。欧盟《人工智能法》对于风险类型的二元划分也有其现实合理性。人工智能系统既可以被当作产品或硬件的一部分加以应用,也可以单独作为软件系统被应用于某些领域。对于前者,法律往往将产品视为独立整体,将人工智能视为产品的一部分加以规制。采取这种规制方式,既可以保证某一整体或模块的安全性,也更容易与传统的法律监管体系对接。在欧盟《人工智能法》起草之初,起草者规制的更多是作为产品构成的人工智能系统,例如玩具、自动驾驶、医疗器械等。欧盟《人工智能法》对于高风险人工智能系统的若干规定都借鉴了欧盟对于医疗器械的规制方案。相反,作为独立系统的人工智能则是用于替代或辅助人类的各类自动化决策系统。对于这类人工智能,法律更需保障其在某些领域进行自动化决策的形式合法性与实质合法性。例如当人工智能系统被应用于教育、就业、移民管理、司法等领域时,人工智能就会对个体的基本权利产生影响。此类人工智能应用的风险与产品类的人工智能风险并不相同。如果说产品类人工智能风险更偏向基于产品责任的私法类风险,那么作为独立系统的人工智能更偏向于影响公法基本权利。当人工智能系统被应用于司法、移民等公权力机构时,人工智能系统所涉及的是一般公法问题;当人工智能系统被应用于就业等私法领域时,则人工智能系统涉及的是公法基本权利的第三人效力。整体而言,欧盟《人工智能法》根据其是否作为产品的一部分而区分风险类型的做法虽不完美,但不失可操作性。无论是从风险类型还是监管方式上,作为独立系统的人工智能与产品类的人工智能系统都存在较大区别,很难用前者统合后者或用后者统合前者。有不少意见指出,比起欧盟《一般数据保护条例》,欧盟《人工智能法》的立法模式缺乏正当性基础与法律体系的统一性和一致性。但从法律监管实践来看,这种立法模式却更具有可操作性,而且比欧盟《一般数据保护条例》更具有实用主义精神。当然,产品与独立系统的二元分类并不绝对,很多人工智能系统都具有类似软件的特征,既可以被视为产品,也可以被视为单独存在的决策系统。事实上,欧盟对于软件的分类一直游移不定。在很长一段时间内,欧盟都将软件排除在产品分类以外,同时拒绝对软件适用产品严格责任。而在欧盟新修订的《产品责任指令》(Product Liability Directive)提案中,欧盟又改变了立场,将软件也视为一种产品。再比如,本文第四部分将要讨论的生成式人工智能系统也很难与通用人工智能系统进行区分,这两类系统并非特定产品的组成部分,也并非应用于某个特殊领域的独立决策系统。

三、风险分级规制的难题


风险分级规制是欧盟《人工智能法》的另一难题:其一,人工智能风险涉及风险划分的标准问题。人工智能是否必然比非人工智能带来更多风险?针对人工智能风险,应更多根据实际风险还是感知风险进行界定?其二,欧盟《人工智能法》对风险级别的划分是否科学合理?如何避免其风险级别划分的不确定性?

(一)风险分级的标准

通过分析欧盟《人工智能法》,可以发现这一立法实际上假定了人工智能存在需要规制的“额外”风险或“单独”风险。就产品构成类的人工智能系统而言,欧盟《人工智能法》规定,法律除了要求产品本身满足欧盟关于产品安全的规定之外,还要求人工智能系统承担建立风险管理系统、数据治理、编制和更新技术性文件、记录保存、透明度与向部署者提供信息、人为监督、准确性、稳健性和网络安全保障等额外责任。同样,对于被列为高风险的独立运行的人工智能系统,欧盟《人工智能法》也假定此类系统的运行会带来额外风险,需要单独规制。但法律规制此类额外风险或对此类人工智能系统风险设定额外责任是否合理与必要?需要指出的是,作为产品的非人工智能系统也可能存在安全问题,例如医疗器械的非人工智能部件可能会设计不当、自动驾驶汽车的非人工智能部件可能会失灵、升降机和索道的非人工智能部件可能会老化。在有的情形下,作为产品零件的非人工智能系统可能更需要风险管理、数据检测、人为检测。在其他情形下,对产品整体进行风险管理的做法可能更为合理,因为人工智能系统与非人工智能系统存在协调配合问题,故立法需要对产品整体进行风险管理。无论如何,将构成产品组成部分的人工智能系统视为额外的风险来源,可能是基于人们对人工智能风险的恐慌,而非真正基于理性的风险分析。独立运行的人工智能系统也存在类似问题,该类人工智能的应用未必带来更多的实际风险。以就业领域的人工智能筛选系统为例,此类人工智能系统的应用的确可能带来风险,但非人工智能系统的决策同样会影响求职者的就业机会,也可能存在很多不公。毕竟,人脑可谓最大的黑箱,人类决策同样存在偏见与歧视,而且可能比人工智能系统决策中存在的歧视更为严重。欧盟《人工智能法》准确地预见到在就业、教育、司法、移民等领域应用人工智能可能对公民基本权利的影响,但要求人工智能决策在此类领域承担更多责任,就表明其并没有理性地看待人类决策与人工智能决策的相对风险。正如桑斯坦所言,在上述领域合理部署与应用人工智能,可能反而有利于形成更为公平合理的决策,减少人工智能侵害公民基本权利风险的发生。欧盟相关机构已经对可能存在的过度预防人工智能风险的问题进行了回应。欧洲议会的修正案指出,如果人工智能的提供者通过各国监管机构的认证,认定某类系统不会对“自然人的健康、安全或基本权利造成重大损害风险”,则此类人工智能不属于高风险系统。欧盟理事会的修正案则指出,如果人工智能系统决策在相关行动或决定中所扮演的角色只是附属性的,则此类系统不属于高风险。最终,欧盟《人工智能法》选择对独立运行的人工智能系统作出专门规定,指出此类系统如果“对自然人的健康、安全或基本权利不构成重大损害风险”,则不应被视为高风险的人工智能系统。这些回应有利于减少欧盟对于高风险人工智能的宽泛界定与过严责任所导致的不利影响,但并未从根本上解决问题。人工智能的风险分级首先需要回答:规制人工智能风险到底应当以实际风险为基础,还是以感知风险为基础?是否仅仅因为人工智能属于新兴科技,法律就应当对这类风险额外关注?

人工智能的风险判断应以实际风险而非感知风险作为依据。所谓实际风险,指的是客观意义上的风险,而感知风险则是人们在主观上所感知到的风险。在有的情形中,实际风险与感知风险具有一致性;但在很多情形中,二者存在较大差距。例如很多人可能认为汽车比飞机安全,但实际并非如此。在人工智能应用的例子中,风险规制也应当以实际风险作为依据,当人工智能并未带来比非人工智能更大的风险时,法律就不应对人工智能进行单独规制。当然,这并不是说法律对人工智能系统的风险判断就应当完全不考虑感知风险。当社会与公众感知到某一人工智能系统的风险较大时,如果完全不回应此类风险,则人工智能系统将丧失社会与公众的信任,也会对人工智能的发展与应用造成反噬。不过针对与实际风险有出入的感知性风险,应当主要通过专家与民众的风险沟通、风险交流,产品售后与服务等方式来消除社会公众的疑虑。如果法律以感知风险作为人工智能风险规制的基础,预先假定人工智能系统比非人工智能系统存在更多风险,需要单独进行评估,则此类假定就会反过来强化社会的非理性风险认知。布雷耶教授和大法官曾将此类规制归纳为“恶性循环”,由于社会中普遍存在对于人工智能的各类非理性认知,人工智能的风险规制尤其应当避免这一问题。
(二)风险分级的科学性与确定性
人工智能的风险分级还存在科学性与确定性问题。欧盟《人工智能法》通过列举人工智能的功能与用例来确定其风险,但其中很多规定是否具有科学性值得商榷。该法的很多规定也存在很大的弹性解释空间,不同的解释往往使得某种人工智能的风险分级发生重大变化,给欧盟《人工智能法》的实施带来极大不确定性。以禁止性风险的人工智能为例,这类风险中的第一类和第二类主要是指人工智能系统影响个人潜意识或特定弱势人群,从而扭曲人的行为和造成伤害的情形,但这类情形实际上非常普遍。例如在人工智能时代之前,各类商业广告就可能影响人的潜意识或特定人群,烟酒广告可能让人们产生对于“美好生活”的错误的潜意识,保健品广告可能让老年人群体对其产生迷信。在数字化时代,这类活动更为普遍。例如抖音的个性化推荐可以为用户推荐符合其偏好的视频,增强用户黏性,阿里和京东的个性化推荐可以有效地为用户推荐产品,促进用户消费。如果严格解释禁止性风险中的第一、二类风险,则很多正常的商业活动或数字经济运营模式都可能被禁止。对于欧盟《人工智能法》提到的此类风险,仍然应该结合具体场景,集中对“数字操控” “暗黑模式”进行规制,而非将所有影响个人潜意识和行为的人工智能系统都列入禁止性风险的范畴。禁止性风险人工智能中的第三类和第八类分别为社会信用评估与实时远程生物识别,主要针对监控引起的侵犯公民权利的情形。需要指出的是,欧盟对于社会信用评估的禁止在很大程度上与中国有关,而且建立在对中国社会信用体系建设的误读之上,其将中国的制度描述为一个利用人工智能对每个人进行社会评分的体系,并以此作为欧盟《人工智能法》第三类禁止性风险立法的背景与根据,这实属对中国社会信用建设体系的误读。而就第八类实时远程生物识别而言,其适用也应取决于公共安全保障与实时远程生物识别应用所带来风险的平衡。例如在有的治安较好、公民权利意识较高的国家和地区,人们可能会更担忧实时远程生物识别应用所带来的风险;而在治安较差或人民对于治安要求较高的国家和地区,人们则可能更担忧公共安全是否得到保障。值得注意的是,欧盟《人工智能法》对第八项禁止性的人工智能实践作了例外规定,允许在绑架、贩运人口、性剥削等情形下使用远程生物识别系统。无论如何,实时远程生物识别的风险级别应当根据不同国家和地区的实践来决定,虽然欧盟将这类人工智能划分为禁止性风险,但并不能说该风险级别的划定对于世界其他国家与地区来说就是科学的。
高风险人工智能同样存在科学性问题。就产品构成类的人工智能系统而言,高风险产品并不意味着作为其构成部分的人工智能也具有较高风险,低风险产品也不意味着作为其构成部分的人工智能不具有高风险。当人工智能仅仅构成高风险产品的非风险来源部分时,人工智能就不属于高风险;当人工智能增加了低风险产品的风险时,人工智能就可能存在较高风险。而就独立运行的人工智能系统而言,欧盟《人工智能法》附件三所列举的范围可能过宽,从而造成对此类系统的过度规制。例如中小私营企业利用人工智能对求职者进行筛选,这未必会对求职者的基本权利或福利造成太多影响。且不说人工智能筛选可能比人工筛选更加中立与客观,即使人工智能筛选存在更多偏见与歧视,求职者也可以在其他用人单位获取工作机会,而市场也会惩罚和淘汰那些存有偏见的企业。而在某些情形中,欧盟《人工智能法》则可能未将高风险的人工智能列入规制范围。例如当人工智能用于医疗挂号排队、在线外卖平台的调度决策时,人工智能系统就可能带来较大风险。相比欧盟《人工智能法》草案,最终版本的《人工智能法》已经对人工智能分级问题进行了更为合理的规定。例如针对禁止性风险的人工智能系统,欧盟《人工智能法》增加了很多例外性规定,从而为这些系统的适用提供了空间。针对高风险人工智能,只要新的用例相比现有用例对健康、安全和基本权利具有同等或更高的损害风险,欧盟委员会就有权在附件三所确立的八个领域之下“增加或修改高风险人工智能系统用例”,也有权在附件三中的人工智能系统不再对基本权利、健康与安全造成显著风险时,将其排除在规制范围外。为了更为科学合理地确定高风险人工智能的范围,欧盟委员会在规定对健康、安全或基本权利造成风险的高风险人工智能系统的范围时,应将人工智能系统的预期用途、使用的程度、所处理数据的性质与规模、已经造成和未来可能造成损害的程度、损害或不良影响的潜在程度、受害方对人工智能系统输出结果的依赖程度、不平等的权力关系、损害的可逆性、人工智能系统所产生的福利等因素纳入考量范围。同时,为了使人工智能的风险界定能够与时俱进,欧盟《人工智能法》规定:“委员会应在本条例生效后每年评估一次是否有必要修订附件三中的清单、第5条中禁止的人工智能行为清单。”但欧盟《人工智能法》无法从根本上确保人工智能分级的科学性与确定性。尽管欧盟试图清晰地对人工智能风险进行分级,但这很难通过确定性规则来实现,毕竟很多规则都有很大的弹性解释空间。事实上,欧盟《人工智能法》对高风险列表的更新、对多种因素的综合考虑、对年度评估的增设等举措本身就说明,人工智能风险很难简单分级,在操作中仍然需要结合具体场景与多种因素进行判断。在本文下一部分对生成式人工智能、大模型与通用人工智能的讨论中,笔者将再次论述欧盟《人工智能法》风险分级的难题。

四、生成式人工智能与大模型


ChatGPT等生成式人工智能在2022年横空出世,对欧盟2021年《人工智能法》草案的风险分类规制与分级规制提出了重大挑战。在分类上,生成式人工智能是一种通用型人工智能,可以被应用于一系列不同的领域。在风险分级上,生成式人工智能是否属于高风险人工智能?应当对其采取什么规制方式?
(一)欧盟《人工智能法》草案的修订
理解欧盟对生成式人工智能与大模型的规制,首先要理解欧盟的架构、立法程序及其不同立场。在欧盟的诸多机构中,欧盟委员会是欧盟的行政机构,是欧盟唯一有权发起立法程序的机构。欧盟(部长)理事会与欧洲议会则类似欧盟的上议院与下议院,这两个机构在欧盟委员会提出立法草案后,有权对欧盟委员会的提案进行修订与批准。在欧盟委员会发布《人工智能法》草案后,欧盟理事会于2022年12月6日采用了“一般进路”,欧洲议会于2023年6月14日采用了制定“修正案”的模式,二者分别提出了对《人工智能法》草案进行修订的方案,其中最为关键的是对生成式人工智能与大模型的规定。经过激烈的谈判,欧盟委员会、欧盟理事会与欧洲议会最终于2023年12月18日达成了一致,并于2024年上半年发布《人工智能法》的最终文本。
欧盟委员会在修订方案中首先提出“通用人工智能系统”的概念,将其界定为可以适用于“诸如图像和语音识别、音频和视频生成、模式检测、问答、翻译等”一般性应用功能的系统。如果通用人工智能系统可能成为高风险产品的构成部分或被应用于高风险领域,则这类系统应当遵守适用于高风险人工智能的技术要求,系统的提供者应当遵循适用于高风险人工智能的信息披露要求。欧盟委员会的方案同时提出,如果通用人工智能系统的提供者明确,其系统不得被适用于高风险产品或领域,则其系统不用遵守适用于高风险人工智能的相关要求。不过,欧盟委员会的方案也主张,通用人工智能系统的提供者不能恶意援引该条款,或者如果欧盟委员会有充足的理由相信该产品会被滥用,则人工智能系统的提供者仍然应当遵循高风险的相关规定。欧洲议会的修订方案也使用了“通用人工智能系统”的概念,不过其方案主要通过“大模型”或“基础模型”的概念进行规制。欧洲议会将大模型界定为“旨在实现输出的通用性、可以适应各种不同任务的大规模数据训练的人工智能系统模型”。根据欧洲议会的方案,大模型本身不是人工智能系统,因此不用承担高风险人工智能的相关责任。但由于大模型可能被应用于通用或特定领域的人工智能系统,大模型的提供者仍然需要承担相关责任。一方面,大模型的提供者要遵守透明性义务:例如为下游人工智能提供者提供技术文件和使用说明,以便他们能够遵循合规义务,或者在欧盟数据库中注册该模型。另一方面,大模型的提供者需要采取措施减轻可以合理预期的风险,需要确保用于训练大模型的数据集的质量、确保大模型输出的技术质量。通过这两方面的规制,欧洲议会的修订方案虽然没有直接将生成式人工智能或大模型纳入其规制范围,但对大模型施加了高风险人工智能系统所应承担的某些责任。
综合而言,欧盟理事会与欧洲议会都对生成式人工智能的爆发性发展作了回应,要求其承担安全保障义务。其中欧盟理事会将包括生成式人工智能在内的通用人工智能列为单独规制对象,要求其承担具有连带特征的平台责任;欧洲议会则将更具基础性的大模型列为单独规制对象,要求其承担具有安全保障特征的平台责任。相较而言,欧盟理事会对通用人工智能提供者承担责任的要求更低,其责任以消极的注意义务为主;欧洲议会对大模型提供者承担责任的要求更高,要求其承担部分积极义务。二者的区别源于欧盟理事会与欧洲议会的构成,欧盟理事会由欧盟各成员国的政府部长组成,其立场相对比较稳健;而欧洲议会由欧盟成员国的民众直选产生,其立场相对激进。在欧盟《人工智能法》的立法进程中,2023年12月9日达成的妥协方案受到了欧洲议会方案的较大影响。根据这一方案,欧盟区分了“低影响力”与“高影响力”的通用人工智能系统。一方面,所有通用人工智能系统都将遵循透明性要求,为下游高风险人工智能应用提供技术文件、训练内容的详细摘要等内容;另一方面,“高影响力”的人工智能系统需要承担“模型评估、评估和减轻系统风险,进行对抗性测试,向欧盟委员会报告严重事件、确保网络安全、报告能源效率”等义务。欧盟最终版本的《人工智能法》使用了“通用人工智能模型”概念,该模型指“具有显著的通用性,能够胜任各种不同的任务,无论该模型以何种方式投放市场,都可集成到各种下游系统或应用中”的人工智能模型。欧盟《人工智能法》从通用人工智能模型中划分出“具有系统风险的通用人工智能模型”,并对其施加额外的义务,此种具有系统风险的通用人工智能模型需要具备“高影响能力”。所有通用人工智能模型的提供者都应当履行以下义务:(1)准备和实时更新技术性文件;(2)准备、实时更新与公开向下游人工智能系统的提供者披露的信息和文件;(3)制定政策,以遵守欧盟关于版权和相关权利的法律;(4)制定并公布足够详细的对于模型训练所使用内容的摘要。必要时,通用人工智能模型的提供者还应当与委员会、成员国主管当局合作。此外,非欧盟成员国的提供者还应在模型上市之前在欧盟范围内指定有权代表,以辅助其履行提供者的各项义务。对于具有系统风险的通用人工智能模型的提供者,欧盟《人工智能法》还要求其履行如下义务:(1)实施模型评价(model evaluation);(2)对欧盟范围内可能存在的系统性风险进行评估和减轻;(3)追踪、记录和报告严重事件的相关信息与可能的纠正措施;(4)确保提供足够水平的网络安全保障措施。欧盟《人工智能法》特别强调了“行为准则”和“统一标准”对通用人工智能提供者的“推定合规”功能。
(二)通用人工智能风险规制的反思
欧盟对生成式人工智能与大模型的规制再次说明了风险分类分级的不确定性。2021年欧盟委员会版本的《人工智能法》草案并未对通用人工智能进行单独规定,也未将其视为高风险人工智能进行规制,仅仅对深度伪造等技术提出了有限的透明性要求。欧洲议会议员、欧盟《人工智能法》的报告人之一德拉戈·图多拉奇在2021年甚至明确主张,《人工智能法》草案不会对生成式人工智能进行重点规制。但在ChatGPT爆红的2022年和2023年,欧盟的立场发生了显著变化。虽然欧盟理事会、欧洲议会和欧盟委员会的立场有所不同,但他们无一例外地对生成式人工智能、大模型进行了重点规制。欧盟的这种立场转变再次说明,欧盟对于人工智能的分级规制具有很大的不确定性。法律要求通用人工智能模型的提供者对下游主体承担风险减轻义务或安全保障义务,可能导致通用人工智能模型的提供者承担不合理的责任。一方面,法律要求通用人工智能的提供者向下游主体提供技术文件、训练内容的详细摘要,这可能会对通用人工智能的核心商业秘密构成威胁。以OpenAI为代表的通用人工智能之所以主要通过API(应用程序接口)向用户和开发者开放,是因为其既希望保持和下游用户的衔接,又能避免其代码、算法、训练内容等商业秘密被外界获取。另一方面,通用人工智能大模型具有天然的多用途性、功能开放性,要求其提供者采取措施减轻下游应用的所有风险,等于要求通用人工智能大模型提供者对其难以预见的多种风险进行事前审查与预防。尤其是在很多通用人工智能大模型免费提供服务或提供免费版本(例如基于GPT3.5版本的ChatGPT、基于文心大模型3.5版本的文心一言等)的背景下,对其施加此类责任可能加重其负担,导致通用人工智能企业不再免费开放其服务,或者其服务仅对少量用户开放。这就类似于如果要求一个免费公园对在公园内出现的各种意外事故都要承担责任,那么公园就可能不再对公众免费开放,甚至可能仅仅允许一部分身体健康、不易发生安全事故的中年人进入。公园也可能向公众收取费用,以支付违规风险所导致的处罚罚款。通用人工智能和大模型的提供者无疑应当针对某些风险承担特定义务,但这类义务应当限于国家安全、公共安全等领域,而且应当以其可以合理预见的范围为限。例如对于恐怖主义信息、儿童色情信息等,通用人工智能和大模型的提供者应当承担事前审查责任。但对于通用人工智能和大模型带来的非公共性侵权风险,法律不应要求其提供者承担一般性的风险减轻义务。正如互联网平台的某些行为也可能增加侵权风险,但互联网平台责任仍然限于公法上的注意义务以及避风港规则之下的侵权责任,并无一般性的风险减轻义务,且其在许多方面受到避风港制度的免责保护。通用人工智能和大模型与互联网平台并不完全相同,但其原理仍然具有不少内在一致性。对于通用人工智能和大模型的提供者,应对其施加公共风险领域的合理预防责任,在其他领域则应结合共同侵权或帮助侵权、避风港等制度确定其责任。

五、人工智能风险规制的原理与制度


欧盟《人工智能法》中的风险分类、风险分级以及对生成式人工智能进行规制的系列问题说明,这一立法在人工智能立法的一般原理与制度设计上都存在若干问题。通过分析欧盟《人工智能法》,可以对人工智能风险规制的法理进行反思。

(一)人工智能风险规制的原理

在原理层面,应坚持对人工智能风险进行场景化规制。所谓场景化规制,指的是将人工智能风险还原到具体的行业、整体产品与已有的法律关系中,利用已有的行业和领域性风险监管以及现有的法律关系对其进行监管。与之相对,欧盟《人工智能法》虽然在一定程度上认识到了人工智能风险的场景性,但其仍然将人工智能系统风险单独剥离出来,试图在原有的行业、产品与法律关系之外对其单独规制。这种做法虽然可以维持欧盟《人工智能法》在形式上的一致性与完美性,但却与人工智能风险规制的基本原理不符。首先,场景化规制有利于人们对人工智能风险进行准确判断。风险本身就与具体场景密不可分,对于某一产品或决策,其风险取决于其事故可能侵害权益的类型、严重性、可逆性、发生概率、影响人群的特征、影响人群的数量等多重因素。而且,即使某一产品或决策被确定为高风险,也并不意味着应用于产品或决策的人工智能也具有高风险性。例如自动驾驶车辆具有相对较高的风险,但当人工智能系统应用在车辆倒车或慢速行驶的场景中,其风险程度就不会太高;而当人工智能系统应用在车辆的语音声控系统中,其风险程度就更低。欧盟《人工智能法》预设了某些产品与某些领域的人工智能必然存在较高风险。但当人工智能系统被用于这类产品或这些领域决策的非关键部分,或者被用于辅助性决策时,就未必具有高风险性。其次,场景化规制有利于法律采取更为合理的风险规制方式。不同场景下人工智能的应用涉及不同法益、不同的行业性或领域性法律。例如商业场景中的人工智能应用主要涉及侵害消费者权益的风险,与消费者权益保护法、个人信息保护法等法律密切相关;劳动用工中的人工智能应用主要涉及侵害劳动者权益的风险,与劳动法等法律密切相关。而公权力机关与公共部门对人工智能的应用则涉及侵害公共利益与公民基本权利,与公法密切相关。对于市场环境中的人工智能风险,社会的接受度往往相对较高,对于不同风险偏好的主体需求,市场往往可以自发地予以满足。相反,对于公权力机关对人工智能的应用所导致的风险,社会的接受度可能相对较低,因为公权力机关应用人工智能所导致的风险可能危及公民基本权利、公共安全、公共威信,而且这一场景下的人工智能风险调节主要靠公众监督、公权力机构设立试点与自我纠错来完成,难以通过市场机制进行调节。如果我国效仿欧盟《人工智能法》,对人工智能风险进行不区分场景的风险评估与规制,就会带来规制过严或过松的问题。最后,场景化规制有利于法律设置合理的监管机构与监管体系。对于不同场景与行业的风险,其主管部门往往已经积累了大量经验,且拥有相对充足的执法资源。例如市场监管部门对于侵害消费者权益风险的规制更具专业性;人社部门对于侵犯劳动者权益风险的规制更具有专业性。人工智能在不同场景中的应用并未改变这一情形。事实上,即使是欧盟《人工智能法》,也在很大程度上依赖已有的不同行业与部门的风险评估机制,例如欧盟已有的各类标准化组织和第三方评估机构的评估机制、人工智能提供者的自我评估机制。欧盟《人工智能法》虽然设立了“人工智能委员会”,但这一机构主要为了促进和协调欧盟各国监管机构和欧盟委员会对人工智能的监管而设立,并不承担人工智能风险评估的具体任务。而欧盟各国在进行高风险人工智能的风险评估时,也在涉及产品类风险时依赖“被通知机构”的评估,在涉及独立人工智能系统时主要依赖其提供者的自我评估。欧盟《人工智能法》的这些规定,说明其监管机构与监管体系仍是高度依赖场景的。
(二)人工智能风险规制的制度

首先,在具体制度层面,应将人工智能的应用者或其构成的产品作为风险规制的对象,而非对人工智能系统本身或其提供者进行规制。人工智能风险的场景化特征使得其性质更接近于辅助决策系统或难以被标准化分割的产品部分,而不是标准化的产品或可被标准化分割的产品零件。对于被标准化的产品或产品零部件,例如汽车轮胎,法律可对其提供者进行直接规制,因为这种规制可以确保商场为市场提供标准化或“模块化”的合格产品,减少市场信息成本。但对于辅助决策系统或难以标准化分割的产品部分,例如对于某一产品中的软件系统、某一产品的组成部分、某个组织的内部人员,法律一般会对整体产品或整体组织施加责任,而非对作为产品或组织构成部分的内部软件系统或人员施加责任。之所以采取这种规制方式,是因为此类软件系统、组成部分或人员具有高度场景化的特征,它们与其所属的产品或组织融为一体,此时再对其进行单独规制并无意义。相反,如果以产品或组织为抓手,则可以有效地对风险进行规制。人工智能的情形正是如此。由于人工智能系统与具体产品或决策高度融合,此时要求人工智能应用者承担主体责任,更能有效与合理地分配风险规制的责任。当然,这并不是说人工智能提供者就不用承担责任。法律应对人工智能造成的国家安全等风险进行监管,这可以激励人工智能提供者进行自我规制、提供更为安全和高性能的人工智能服务。此外,人工智能提供者还受到市场合同与侵权制度的约束。人工智能的应用者为了避免相关风险,必然会要求人工智能提供者控制相关风险。当人工智能应用者发现人工智能系统存在不符合约定的风险隐患,或者其因为人工智能系统而遭受罚款或侵权索赔时,人工智能应用者完全可以向人工智能提供者追责。其次,应区分市场主体与公权力机构对人工智能的应用,对二者采取不同的规制框架。对于市场主体应用人工智能所带来的风险,其风险规制应当聚焦公共性风险或社会不可接受的风险;对于其他风险,则应主要通过企业自我规制来控制。这是因为,市场背景下不同主体有不同的风险偏好,在非公共性风险或社会可接受的风险范围内,法律允许市场中存在风险程度不一但相对可控的产品或决策,可以为市场提供不同种类、不同价格的商品或服务,从而满足不同群体的需求。用经济学的术语来说,就是产品或服务的多样性可以实现社会福利的最大化。而公权力机构对人工智能的应用则涉及公平、公正、民主参与、政府公信力等公共性价值,在应用或部署人工智能系统之前,公权力机构应当确保此类价值不会受到侵害。对于收益与侵害风险不确定的人工智能,公权力机构应通过设立地区或分支试点来适用该类人工智能,以避免大规模地适用进而造成不可逆的侵害。最后,对于市场化的人工智能应用,应注重通过侵权法对其风险进行事后司法规制,避免过多的事前行政规制。这是因为人工智能风险已然引起了非理性担忧和以主观感知风险为基础的行政规制。将人工智能作为独立风险,会导致风险规制偏离实际风险,从而对人工智能的开发与应用增加不必要的规制。相较之下,通过侵权法进行事后规制是更为合理的风险规制方案。通过侵权法的事后规制不仅可以为人工智能的市场化应用提供发展与试错空间,而且可以对具体场景中的风险进行更为准确的判断。正如斯蒂文·萨维尔在其经典研究中所述,当私人主体比规制主体更容易掌握关于风险的知识时,侵权法的适用应当优先于规制法,因为侵权法可以对风险进行个案判断。

从全球范围看,上述进路已经为欧盟之外的很多国家和地区所采用。以新加坡的《模范人工智能治理框架》为例,该框架初稿于2019年1月在瑞士达沃斯世界经济论坛上发布,并于2020年进行了修改,被视为全球人工智能治理最早的制度之一。这一制度将人工智能的部署者作为其规制中心,首先规定了人工智能部署者的内部治理结构与措施,要求在人工智能部署所涉及的各个阶段,必须安排相应的人员或成立相关部门,并且采取必要措施来“纳入与算法决策相关的价值观、风险和责任”。其次,这一制度根据人类参与人工智能增强决策的程度,要求部署者对不同程度的风险(以伤害的严重程度乘以伤害的概率来计算风险)进行不同类型的人工介入。最后,这一制度要求人工智能部署者注意与利益相关者进行互动和沟通,消除利益相关者的疑虑、获取其信任。对于人工智能的提供者和开发者,这一框架仅规定了开发、选择和维护等人工智能模型运营管理中提供者和开发者需要注意的风险,例如保证数据质量和避免数据歧视。同时,新加坡的《模范人工智能治理框架》不具有强制性的法律效力,其规定的风险预防措施都仅有推荐性与倡导性。这就使其制度类似于本文提到的企业自我规制,避免了对人工智能施加过多的事前行政规制。美国的人工智能治理也具有类似特征。目前,美国人工智能治理最主要的制度是美国商务部发布的《人工智能风险管理框架》与美国总统发布的若干行政命令。其中,美国《人工智能风险管理框架》虽然对人工智能的提供者与应用者都进行了规定,但这一框架不具有法律约束力,其目的“旨在提供一个灵活、结构化和可衡量的过程,使得在整个人工智能生命周期中,人们能够前瞻性和持续性地应对人工智能风险”。而相关的行政命令虽然有一定的法定约束力,但其主要针对美国的规制机构。例如特朗普政府发布的《保持美国在人工智能领域的领导地位》(Maintaining American Leadership in Artificial Intelligence)和《促进联邦政府使用值得信赖的人工智能》(Promoting the Use of Trustworthy Artificial Intelligence in the Federal Government)的主要目标是要求美国规制机构采取相关措施,促进人工智能发展。拜登政府发布的《安全、可靠和值得信赖地开发和使用人工智能》(On the Safe , Secure , and Trustworthy Development and Use of Artificial Intelligence)的行政命令主要是指示美国联邦规制机构在刑事司法、教育、医疗保健、住房和劳工等领域制定标准与规范。对于市场化运作的人工智能,美国《安全、可靠和值得信赖地开发和使用人工智能》仅对涉及国家安全的人工智能进行了风险规制。在美国的宪法体制下,除了涉及国家安全等少数总统权限内的领域以外,由美国总统发布的行政命令无权对市场化运作的人工智能企业进行直接规制。

欧盟在一定程度上注意到了人工智能司法规制的重要性。除了欧盟成员国的侵权法,欧盟还制定与修改了《人工智能责任指令》(AI Liability Directive , AILD)与上文提到的《产品责任指令》,对人工智能侵权问题进行了详细规定。其中《人工智能责任指令》对人工智能侵权中的证据披露与举证责任进行了特殊规定,《产品责任指令》则将软件也纳入产品范围,从而将人工智能侵权纳入产品责任的范围。这些制度足以对人工智能进行充分与合理的规制。不过,目前欧盟《人工智能法》对人工智能进行了过度的风险预防,而欧盟《人工智能责任指令》中规定的特殊侵权制度又主要以违反《人工智能法》为前提,这就导致了欧盟的人工智能不仅会受到过多的事前规制,而且相关主体也将承担很多不合理的侵权责任。

六、结语:数字时代的风险规制


数字时代的风险特征并不意味着对其予以快速的立法规制就具有合理性。本文以欧盟《人工智能法》为例,对欧盟试图全方位规制人工智能风险的努力进行评述与法理反思。本文指出,欧盟对人工智能风险的分类、分级与对生成式人工智能和大模型的特殊规制虽然具有部分合理性,但也存在很多不合理之处。此类不合理之处的根源在于欧盟过于追求对人工智能风险的统一化规制。未来,人工智能风险规制应当坚持场景化规制,将人工智能风险还原到具体的行业、整体产品与已有的法律关系中进行监管。在制度层面,人工智能风险规制应规制人工智能构成的产品而非人工智能系统本身,规制人工智能的应用者而非提供者。对于通用人工智能和大模型,应对其施加国家安全、重大公共安全的合理预防责任,在其他领域则应结合共同侵权或帮助侵权、避风港等制度分析其责任。法律还应对市场主体与公权力机构对人工智能的应用采取不同的规制框架,注重通过侵权法来对市场化的人工智能风险进行事后司法规制。

来源:法律科学期刊



长按二维码关注

华东政法大学中外法律文献中心


点击「在看」,就是鼓励