专栏名称: 法学学术前沿
识时务 有情怀 讲方法 结善缘 —— 易明法律研究院
目录
相关文章推荐
九章算法  ·  升到L6,谈谈今年的情况 ·  昨天  
九章算法  ·  谷歌/亚麻的BQ题库,附上标准答案! ·  昨天  
算法爱好者  ·  o3-mini 碾压 DeepSeek ... ·  4 天前  
51好读  ›  专栏  ›  法学学术前沿

策论 | 郑志峰:人工智能产品责任的立法更新

法学学术前沿  · 公众号  ·  · 2024-10-15 11:06

正文

人工智能产品责任的立法更新



作者:郑志峰,西南政法大学民商法学教授

来源:《法律科学》2024年第4期。

为塑造法学学术前沿微信公众平台的风格,微信推送的外标题系编辑根据文章理解所加,不代表作者立场。

目 次


一、问题的提出

二、人工智能产品的多维识别

三、人工智能产品责任构成要件的认定

四、人工智能产品责任免责事由的设置

五、结语


摘  要

我国《人工智能法》的制定程序应当与《产品质量法》的修订程序同步启动,以确保人工智能产品安全与产品责任的规则相协调。有形性并非判断人工智能产品的标准,人工智能输出信息具有成为产品的可能,而人工智能产品与服务的区分则需要进行类型化判定。在产品缺陷的判断上,技术性标准的制定应当特别考量人工智能产品的新安全需求,对不合理危险的认定则需要综合产品说明、其他产品的影响、自主学习、升级更新等主客观因素。因果关系的认定需要区分辅助型与替代型人工智能,合理判断人工智能自主行为与使用人行为是否构成替代原因,同时引入因果关系推定规则。在免责事由方面,后期缺陷抗辩规则的适用需要考虑人工智能产品的升级更新、自主学习的特点,对发展风险抗辩规则的适用宜通过区分不同风险的人工智能、设置跟踪观察义务等方式进行限制,但没有必要创设单独的开源抗辩规则。

关键词:人工智能法;人工智能产品;产品缺陷;因果关系;免责事由



一、问题的提出


当前,人工智能治理已经进入大规模统一立法的新阶段。人工智能的侵权责任是人工智能立法的重要内容,也是理论和实务界都重点关注的课题。面对人工智能带来的侵权责任挑战,学界普遍认为产品责任制度是解决人工智能产品责任问题的重要制度工具。一方面,从历史视角看,产品责任对于新兴科技具有天然的适用性,可以很好地分散科技创新带来的风险,保护消费者的人身财产安全。另一方面,随着人工智能技术日益智能化,其需要人类干预或者参与的程度会越来越低,产品缺陷致损事件的数量会逐步增加,产品责任将扮演更为重要的角色。然而,与传统产品相比,人工智能产品的自我学习能力较强,具有自主性、专业性、复杂性、不透明性等诸多新特点,使得更新一套能够适应人工智能技术发展的产品责任立法就显得至关重要。


欧盟高度关注人工智能产品责任问题,始终将之作为人工智能立法的重要内容。早在2018年,欧盟委员会成立了产品责任指令组,负责详细地评估欧盟《产品责任指令》在人工智能环境中适用的可行性。2022年9月,欧盟委员会通过了《关于缺陷产品责任的指令的提案》,该指令扩大了产品的范围,化解了产品缺陷和因果关系的认定难题,丰富了抗辩事由,全方位更新了产品责任规则,以迎接人工智能时代的到来。2024年5月,欧盟理事会正式批准《人工智能法》,为人工智能的风险监管提供了基础规则。虽然欧盟主要通过新《关于缺陷产品责任的指令的提案》来规制人工智能的产品责任,欧盟《人工智能法》本身并未直接涉及人工智能的产品责任问题,但两者并非毫无关系。恰恰相反,欧盟《关于缺陷产品责任的指令的提案》与《人工智能法》可以视为一个硬币的两面。一方面,从功能层面看,欧盟《人工智能法》旨在从前端设定产品安全要求,确保只有安全的人工智能产品才能进入欧盟内部市场。而当人工智能产品存在缺陷并导致损害时,就需要适用《关于缺陷产品责任的指令的提案》,从后端分配产品责任。另一方面,从规范层面看,欧盟《人工智能法》与《关于缺陷产品的责任的指令的提案》存在诸多关联。例如,欧盟《人工智能法》中的人工智能系统构成《关于缺陷产品责任的指令的提案》中的产品;《人工智能法》所指的人工智能系统提供者,可被视为《关于缺陷产品责任的指令的提案》中的制造商;未遵守《人工智能法》关于人工智能系统的强制性安全规定的人工智能系统,会被《关于缺陷产品责任的指令的提案》推定为存在缺陷等。


在国内立法方面,《国务院2023年度立法工作计划》提出“预备提请全国人大常委会审议人工智能法草案”的计划,《国务院2024年度立法工作计划》再次明确这一点,标志着我国迎来了人工智能集中立法的契机。随后,我国学者迅速提出了两部人工智能法建议稿,一部是由中国社会科学院牵头起草的《人工智能示范法(专家建议稿)》,一部是由中国政法大学等机构的学者们共同撰写的《人工智能法(学者建议稿)》,二者都对人工智能侵权责任做了规定,看到了产品责任与人工智能法的内在关联。例如,两部人工智能法建议稿都使用了“人工智能产品”与“人工智能服务”的概念,基本形成了产品与服务两分的调整框架,使人工智能产品的识别变得至关重要。再比如,《人工智能法(学者建议稿)》第88条专门就人工智能产品缺陷致害的责任做了规定,为产品责任制度的适用留下接口。与此同时,2023年10月,市场监管总局组织对《产品质量法》进行修订,发布《产品质量法(公开征求意见稿)》向社会公开征求意见。但遗憾的是,公开征求意见稿并未很好地回应人工智能、数字经济的发展需求,有关产品责任的规定并不完善。


考虑到产品责任与人工智能立法的密切关系,我国应当协同推进《人工智能法》的制定程序与《产品质量法》的修订程序,合理安排人工智能产品责任规则的更新问题。基于此,本文针对人工智能产品责任的立法更新进行研究,重点探讨三个问题:一是人工智能产品的识别问题,旨在解决人工智能软件的性质、人工智能输出信息的界定、人工智能产品与服务的区分等难题;二是人工智能产品责任构成要件的更新问题,以构建一套人工智能产品缺陷与因果关系认定的判断规则;三是人工智能免责事由的配置问题,本文通过逐一检视后期缺陷抗辩、发展风险抗辩、开源抗辩等事由,以期为我国《产品质量法》的修订以及《人工智能法》的制定提供参考。


二、人工智能产品的多维识别

科学技术的发展不断挑战着现有的法律概念,这些概念迅速准确地回应挑战,具有重要的社会经济意义。对于产品责任来说,人工智能产品的识别至关重要,这不仅是适用产品责任的前提,也关系到《人工智能法》诸多条款的制定与适用。


(一)人工智能有形与无形的厘清

1.产品有形与无形的争议。传统产品责任法中的产品概念以有形动产为模板,强调产品的物质属性,有形性成为产品的重要判断标准。例如,美国《侵权法第三次重述:产品责任》第19条规定:“产品是经过商业性销售以供使用或消费的有形动产”。1985年欧盟《产品责任指令》第2条将产品定义为“所有动产,即使其存在于另一个动产或不动产中,但初级农产品和狩猎产品除外”。与此同时,根据我国《产品质量法》第2条的规定,产品是指经过加工、制作用于销售的产品。虽然法律没有明确将产品的表现形式限定为有形动产,但理论界一般认为产品主要指的是有体物。


随着社会经济的发展,无体物作为财产登上历史舞台,这对传统产品的概念提出了挑战。其中,最典型的例子就是软件。美国法院倾向于认为软件不属于产品。例如,在一个案件中,原告声称其沉迷于“在线视频游戏”以及购买“游戏货币”导致了其经济损失,对此向被告主张产品责任赔偿,原告认为该游戏存在“不公平做法和作弊的行为,并试图引发用户成瘾等”;对此,法院认为,在线游戏不受华盛顿产品责任法的约束,因为游戏是软件,不是产品责任规制的“对象”。在欧盟方面,有观点指出,有形性是用于确定欧盟《产品责任指令》是否适用的中心概念。软件中的硬件部分当然会被视为产品,集成到有形产品中的软件也会被视为产品。然而,对于独立软件,介质成为决定性因素:如果软件存储在有形介质上,如DVD或者闪存盘,那么它有资格作为产品;反之,如果软件是通过云服务下载的,那么其能否适用欧盟《产品责任指令》则是存疑的。


对于人工智能来说,其最终呈现的形式可能是有物理载体的有体物,也可能是软件等无体物。对于具有物理载体的人工智能应用,如自动驾驶汽车、人形机器人等,其当然属于产品的范畴。而对于软件形式的人工智能应用,特别是通过云服务下载的程序、在平台中使用的算法等,实践中对其是否属于产品的认定较为困难。例如,国家药品监督管理局批准的几款人工智能辅助诊断软件,一般仅包含客户端软件和服务器端软件,并不包括硬件部分,其是否可以构成产品不无疑问。再比如,在一起案件中,原告主张被告应当就使用的算法缺陷承担产品责任,认为算法“决定了在平台上观看的内容”,并生成了“无休止的提醒,诱导儿童成瘾”,如果没有这些算法,“即使社交平台和应用程序上保留相同的内容,原告也不会受到伤害”。对此,就需要立法明确算法是否构成产品。


2.人工智能产品的有形与无形。有形与否并非产品的本质特征,不能简单地认为人工智能系统、算法、程序等软件就是无形的,进而将之排除在产品范围之外。


首先,产品与有形动产之间并不等同。我国《产品质量法》没有要求产品必须是有形动产,相反,相关法律法规明确将软件作为产品对待。例如,根据我国《医疗器械监督管理条例》第103条规定,医疗器械是指直接或者间接用于人体的仪器、设备、器具、体外诊断试剂及校准物、材料以及其他类似或者相关的物品,包括所需要的计算机软件。而医疗器械属于我国《民法典》第1223条明确列举的三种医疗产品之一。域外立法虽然强调产品的有形性,但普遍认为电力属于产品。有观点指出,算法比无形的电力更加稳健,更适合作为产品。与电力被动进入用户电表不同,算法往往是受用户主动邀请进入用户使用的网络设备并被用于处理数据。


其次,人工智能软件具有有形性。虽然软件通常被定义为能够使具有信息处理能力的机器指示、执行或实现特定功能、任务或结果的一组指令,但这些指令总是以这样或那样的形式被具体化地表达出来,它们一旦离开程序员的大脑,就不再是纯粹的信息。软件虽可能超出了人类的感知范围,但并不意味着它没有物质实体。一方面,人工智能软件可以以光盘、存储芯片甚至是电磁记录等方式存在,这些介质本身就是物质实体。另一方面,当人工智能软件被引入到适当的硬件时,它将在周围的世界中引发有形的变化。如果你把游戏软件放进电脑,那么它将为你呈现有形的和互动的图像与声音。如果黑客将恶意软件植入一个国家的电网,那么它可能导致电力瘫痪等严重的后果。因此,人工智能软件也有有形的一面。


最后,数字社会的发展需要将无形物视作“产品”。产品的表现形式从有形动产扩展至无形财产,符合产品责任法的发展规律。随着数字社会的到来,操作系统、固件、计算机程序、应用程序或人工智能系统等软件在市场上越来越常见,在产品安全方面发挥着越来越重要的作用。从消费者的角度而言,将软件视为产品可鼓励生产者进行充分的检测,以阻止有缺陷的软件投入市场。产品的本质属性并非有形或无形,而在于其批量生产、规模销售带来的社会效益,软件的无形性特征并不构成其适用产品责任的障碍。相反,如果坚持认为软件是无形的,只有通过介质才能使其成为一种产品,那么就会产生奇怪的后果:有介质的软件造成损害可以适用产品责任,而没有介质的软件造成损害却不能适用产品责任。从受害者的角度看,这种区别很难被证明是合理的,也会导致生产者有变相逃避产品责任的可能。基于此,欧盟《关于缺陷产品责任的指令的提案》做了大胆的革新,明确规定数字时代的产品可以是有体的,也可以是无体的,人工智能软件可以作为产品。



(二)人工智能介质与信息的认识


1.产品介质与信息的区分。传统产品责任法理论将产品的范围局限于有体物,强调产品的介质,而介质所承载的思想、信息等不能作为产品。其中,最典型的例子是书籍出版物中的信息。


域外法院几乎一致拒绝对危险性虚假信息的出版物适用产品责任。例如,一位蘑菇爱好者信赖了由被告出版的《蘑菇百科》一书中的信息,采摘并食用了某种蘑菇导致其身患重病。对此,美国法院认为,书籍中的信息构成观点而非产品,并解释了出版物有形和无形部分的区别:一本包含莎士比亚十四行诗的书由两部分组成,物质与其中的印刷以及其中的观点与表达,前者可能是一件产品,但后者不是,产品责任法适用于有形世界。欧洲国家也发生过因为读者信任出版的关于可食水果和植物实用指南的书籍而引发食用中毒的案件。对此,法院同样拒绝适用产品责任。以此类推,法院拒绝了针对液态饮食书籍、医学教科书、旅游向导、金属锻造书籍以及其他出版物出版商的诉讼。


这种介质与信息两分的理念很快被应用在了软件上。即使承认软件是有形的,光盘、存储芯片甚至电磁记录也可以作为一种特殊的介质,但软件传递的信息或者内容是无形的,该部分不适用产品责任。例如,在一个网络游戏的案件中,美国法院认为,尽管计算机源代码和程序在税收领域被解释为“有形财产”,在美国《统一商法典》中被解释为“货物”,但这些分类并不表明计算机视频游戏、电影或互联网材料中包含的思想、想法和信息应被视为适用严格责任的产品。同理,法院拒绝将网站、社交媒体认定为产品,认为网站、社交媒体不符合产品系有形动产的定义,造成损害的并非网站、社交媒体本身,而是它们所包含的错误、不良信息。


人工智能常常被用于为用户提供决策、建议、预测等信息内容,如生成式人工智能、人工智能辅助诊断软件、聊天机器人等,其能否构成产品不无疑问。在2020年的罗杰斯案中,原告主张当地的州法院使用了一款用于评估假释风险的公共安全评估系统,批准了一名入狱男子的假释请求,结果几天后该男子杀害了原告的儿子;对此,美国第三巡回上诉法院认为,使用“多因素风险估计模型”来评估刑事被告是否应在审判前释放的公共安全评估系统不是新泽西州产品责任法中的“产品”,因为其不是商业发行的,而是被设计为“客观的、标准化的和……经验风险评估工具”,用于审前服务计划,而“信息、指导、想法和建议”不能成为美国《侵权法第三次重述:产品责任》中的产品。


2.人工智能介质与信息的认识。以有体物为中心的近代法、现代法,都没有为信息设定恰当的位置,但是多媒体和数字技术等所代表的信息科学、信息工程学不可避免地在相当大的范围内对未来的法形成强烈的冲击。人工智能是一种模拟人类智能的技术,能够从其接收的输入信息中推断如何生成可影响物理或虚拟环境的输出,如预测、内容、建议或决定。笔者认为,人工智能的介质部分固然可以归入产品范畴,但一刀切地将人工智能输出信息排除在产品责任之外也不合理。


首先,对于信息适用产品责任存在先例。信息虽然不同于介质,但并非一概不适用产品责任。事实上,信息产品的质量问题早就引起了人们的注意。早在1786年,法国议会主席就规定地理地图应当由地图制图员、雕刻师甚至是独立单位来制作,出版前必须在内阁所属各部之间进行传阅,以保障地理地图的可信度和准确度。在美国,产品责任可适用于地图、航海图中的错误信息。在一个案件中,一架飞机在接近内华达州拉斯维加斯时坠毁,机上乘客全部遇难,经过调查发现原因是飞行员在驾驶时依赖了被告出版的进场图;对此,美国法院明确驳回被告关于进场图不构成产品的主张。英国也发生过一起著名的“课本事故”,由于一本化学教科书将两种化学元素之间的比例标印错误,使学生在操作实验时引发了严重的爆炸事故,英国法院对该案同样适用了产品责任。


其次,人工智能输出信息适用产品责任具有必要性。对于人工智能来说,介质可能因存在缺陷而造成损害,信息本身也可能因存在缺陷而造成损害。例如,对于人工智能软件,我们很难想象其介质(如磁盘、电磁记录)会导致损害,因为介质部分通常不具有任何危险属性,更有可能是介质内容(即软件中包含的信息)的应用导致损害。随着数字技术的广泛应用,信息将在消费者的生活中发挥越来越大的作用,法院将被迫越来越频繁地解决缺陷信息导致损害的案件。在许多情况下,消费者购买或者使用人工智能的目的在于获取算法系统输出的决策、建议、预测等信息,以此作为开展某些活动的指导或者依据,故消费者理应有权期待获取的信息是安全的。此外,信息与介质也无法完全区分,因为信息本身必须借助某种介质存在,否则就是纯粹的主观思想,故以无形性为理由将信息排除在产品之外的做法并不合适。


最后,人工智能输出信息适用产品责任并不必然危及言论自由。相较于产品是有形还是无形的问题,信息适用产品责任最大的障碍是言论自由的保护。有学者指出,信息所表达的精神性内容大多属于思想或言论范畴,在法律上对一种思想或言论进行安全性判断,已经超出了“产品缺陷”的固有含义。这种观点值得商榷。一方面,对于出版物、软件、网站等传统信息产品,信息内容的生产主体一般为自然人。而人工智能可以不受人类的干预自主输出信息内容,与自然人之间的关联度大幅降低,保护人工智能生成内容的“言论自由”的正当性也随之下降。有观点就指出,生成式人工智能根本不受美国宪法第一修正案的保护,因为它不是人类。另一方面,人工智能输出的信息类型是多样的,可以是纯粹表达文化思想、体现言论自由的文化信息,也可能是旨在提供一种实用性能或技术方案的技术信息。例如,生成式人工智能可以输出日常生活、艺术作品等主题的文化信息,一般不适用产品责任。与之不同的是,人工智能辅助诊断软件输出的是一种技术信息,旨在为医务人员或者患者提供诊疗活动的专业指导,在功能上与有形的工具产品没有区别,理当适用产品责任。总之,产品责任制度本质上是一种政策驱动的法律体系,法院应当捍卫产品责任制度的目标,同时保持思想的自由交流。



(三)人工智能产品与服务的区分


顾名思义,产品责任只适用于产品,而排除服务的适用。美国《侵权法第三次重述:产品责任》第19条规定:“服务,即使是商业性提供的,也不是产品。”欧盟法院也明确指出,服务提供者的责任不属于《产品责任指令》的适用范围。区分产品与服务的关键原因在于两者适用的侵权责任规则不同。从域外立法来看,除巴西等认为服务侵权应适用无过错责任之外,目前绝大多数国家或地区都认为服务侵权宜适用过错责任或者过错推定责任。同时,服务侵权不存在产品缺陷的问题。对于人工智能来说,产品与服务的区分难题主要表现为三种情形,需要分别讨论。


1.人工智能产品包含服务的情形。人工智能产品包含服务的情形越来越多,此时服务的存在是否会改变产品的性质不无疑问。例如,自动驾驶汽车的运行除了需要各种硬件、软件的支持外,还依赖于各种服务,包括软件升级服务、高精地图导航服务、车联网服务等。服务本身是为了产品功能的实现,并不会改变产品的性质,相反,产品与服务应当共同适用产品责任。首先,服务类似于人工智能产品的零部件,是产品的组成部分,产品的整体属性仍然存在。其次,法律区分产品与服务的重要原因在于,产品具有批量生产、规模销售的特点,生产者承担产品责任后可以通过价格机制分散其风险。对于人工智能产品包含服务的情形,生产者并没有因为服务的存在而改变产品批量生产、规模销售的特点,生产者的风险控制与分散能力依然强大,具有适用产品责任的基础。最后,人工智能产品包含服务的情形日益普遍,人工智能产品与服务共同适用产品责任具有必要性。欧盟《关于缺陷产品责任的指令的提案》明确指出:“数字服务集成到产品中或与产品互联的情况越来越普遍,如果没有这种服务,产品就无法发挥其特定功能。虽然本指令不应适用于服务本身,但有必要将无过错责任的适用扩张到此类数字服务,因为此类服务与物理或数字组件一样决定着产品的安全性。”考虑到数字时代的产品对于服务具有依赖性,因此立法有必要推动人工智能产品和服务共同适用产品责任。


2.服务中使用产品的情形。许多服务活动需要使用产品进行辅助,立法需要明确此时是否有适用产品责任的空间。在确定产品责任是否适用于混合买卖服务的交易时,美国法院一般会通过寻求交易的“本质”来确定到底是买卖还是服务占据交易的主导地位,进而决定是否对其适用产品责任。实践中,对医院以及其他医疗服务提供者,或者建筑师、工程师以及其他设计专业人员为提供专业服务而造成损害的情形,美国法院普遍拒绝对其适用产品责任。我国也有学者指出,在医疗服务过程中,医疗产品的使用行为应在整体上被定性为一种“服务”,而非产品“销售”,从而适用医疗损害赔偿法中的过错责任,而不适用产品责任法的无过错责任或严格责任。在服务中使用人工智能产品的场合,虽然服务活动在其中占据主导位置,但只要能够确定损害是因为人工智能产品缺陷造成的,法院就应当对其适用产品责任。一方面,产品责任并未限定产品的使用方式,不能因为人工智能产品在服务中被使用就排除其适用产品责任的可能。例如,我国《民法典》第1223条就明确规定,在医疗活动中使用医疗产品造成损害的,受害人可以请求生产者、医疗机构承担产品责任,这当然适用于医疗人工智能产品造成损害的情形。对此,欧盟法院在近期的司法裁判中也持类似观点,主张医疗活动中使用的人工智能软件属于医疗器械,可以对其适用产品责任。另一方面,虽然产品的使用是为了服务的开展,但并不代表产品本身无足轻重。接受服务的一方对于产品的安全有一个合理的期待,当产品存在缺陷造成损害时理应对其适用产品责任。欧盟《一般产品安全条例》明确指出:“为了保护消费者的健康和安全,在提供服务的背景下向消费者提供或提供给消费者的产品,包括消费者在提供服务过程中直接接触的产品,应属于本条例的适用范围。”


3.使用人工智能软件中的情形。对于人工智能软件到底属于产品还是服务,学界存在不同的观点。有观点认为,应将软件分为普通软件和专门软件,前者属于产品,后者属于服务。有学者则建议通过软件的功能进行区分,如果软件提供了人类可能实施的服务,如投资咨询,那么该软件属于服务,如果软件仅提供常规数据分析,那么该软件属于产品。有观点坚持以有形与无形为标准进行区分,认为基于云服务的人工智能软件很可能被视为一种服务。为了解决这一问题,欧盟《关于缺陷产品责任的指令的提案》做了大胆的探索,明确指出:“为了法律的安定性,应明确软件是适用无过错责任的产品,无论其供应或使用方式为何,也无论软件是存储在设备上、通过通信网络或云技术访问,还是通过软件即服务模式提供”。欧盟《关于缺陷产品责任的指令的提案》将所有软件与产品等同对待,排除其作为服务的可能。笔者认为,这种观点值得商榷。软件可能构成服务,也可能构成产品,关键在于对软件提供活动的性质的判断,即某类软件是否符合产品批量生产、规模销售的特点,生产者与受害人之间信息不对称的严重程度,对该类软件是否具有适用无过错责任的必要。例如,对于人工智能辅助诊断软件,考虑到软件本身可以批量生产、规模销售,生产者的风险控制与分散能力很强,患者直接证明生产者存在过错的难度极大,故将其作为产品更加合适。至于生成式人工智能,我国《生成式人工智能服务管理暂行办法》明确将其界定为一种服务。


将生成式人工智能一概归入服务范畴的做法也有不妥之处。一方面,生成式人工智能作为一种软件,具有批量生产、规模销售的特点,其每个版本的技术特点基本是稳定的,面向的是不特定的用户,并非提供一对一的定制服务。虽然用户的需求是个性化的,但生成式人工智能的生成结果有相对的可控性。提供者提供的并非持续的个性化服务,其主要目的是维护和提升生成式人工智能的版本性能。另一方面,提供者在获得经济回报方面与销售产品并无不同,也可以通过提升定价来迅速分散风险,同时受害人要举证证明提供者存在过错并不容易。因此,生成式人工智能具备成为产品的可能。当然,这并不意味着提供生成式人工智能的活动必然适用产品责任,还需要考虑技术的具体用途。如果提供者将生成式人工智能用于生成诗歌、日常问答等,那么该行为一般不适用产品责任。反之,如果提供者将生成式人工智能应用于医疗、导航等专业领域,提供的是技术信息,那么该行为具有适用产品责任的可能。


三、人工智能产品责任构成要件的认定

产品责任适用无过错责任原则,构成要件的核心是产品缺陷与因果关系。对于人工智能产品来说,无论是产品缺陷的认定,还是因果关系的证明,都需要立法更新认定标准。



(一)人工智能产品缺陷认定标准的更新

1.人工智能产品缺陷的认定难题。产品缺陷是构成产品责任的核心要件。通常来说,产品缺陷包括制造缺陷、设计缺陷、警示缺陷三种。其中,设计缺陷被认为是人工智能产品缺陷中最为重要和最难认定的类型。根据我国《产品质量法》第46条的规定,缺陷的判断标准包括不合理危险与技术性标准两类。对于人工智能产品来说,产品缺陷的认定并非易事。


第一,技术性标准的失灵。首先,人工智能产品日新月异,更新迭代常常只在朝夕,而国家标准、行业标准的出台存在制定成本高、程序烦琐、滞后性等特点,想要借助技术性标准来认定人工智能产品缺陷并不容易。其次,产品的安全场景存在已知安全、未知安全、已知危险与未知危险四种,技术性标准通常仅针对已知危险,对于未知危险的适用性有限。相较于传统产品,人工智能具有自主性和自我学习的能力,加上受到数据输入、算法黑箱、网络安全、运行环境等各种因素的影响,人工智能产品具有更强的不可预测性和更多的未知风险,这给技术性标准的制定带来了挑战。再次,传统产品在性能上具有相当程度的稳定性,在投入流通后通常不需要生产者提供持续的服务。与之不同的是,人工智能产品高度依赖服务的持续升级和更新,导致产品的安全评价范围从产品的前端变为产品的整个生命周期,进一步增加了技术性标准的制定难度。最后,人工智能产品更加复杂,不仅包括硬件模块,还包括算法、数据、网络等软件模块,其不仅强调功能安全,还关注网络与数据安全、伦理安全等。技术性标准对于硬件等功能安全具有很强的适用性,但对于软件部分的适用性、其他安全需求的回应相对有限。例如,立法很难针对人工智能产品中的算法模块确立一个统一的标准,不同企业总是使用不同的方式进行算法编程,严格的技术性标准可能会阻碍创新。


第二,合理期待标准的适用困境。我国《民法典》《产品质量法》并未明确判断不合理危险的标准。对此,许多学者都提到了域外法中的合理期待标准,认为其可以减轻受害人证明人工智能产品缺陷的压力。合理期待标准强调将产品安全与人们的合理期待进行对比,产品安全没有达到人们的合理期待即存在缺陷。欧盟《产品责任指令》第6条就确立了合理期待标准,规定如果产品不具备人们合理预期的安全性,则该产品存在缺陷。实践中对人工智能产品适用合理期待标准存在诸多困境。一方面,合理期待标准要求人们对于产品安全具有合理的认识,通常适用于日常生活中常见的“简单产品”。然而,人工智能产品作为一种新兴科技的“复杂产品”,人们很难了解其运行机制,许多时候会产生不切实际的期待。另一方面,学界对合理期待标准究竟是依据谁的合理期待为据来确定存在争议。例如,医务人员使用人工智能辅助诊断软件造成损害,受害人究竟是依据医务人员的合理期待还是自己的合理期待做判断不无疑问。有观点指出,所有的合理期待测试都有一个共同的属性,那就是在复杂的案件中,合理期待标准都是含糊不清的。正是基于此,美国《侵权法第三次重述:产品责任》改变了此前的做法,不再将合理期待标准作为一项独立的判断标准,而仅作为风险效用分析的一个因素。


第三,风险效用标准的适用难题。风险效用标准强调对产品的安全设计进行成本与效应的比较分析,核心是判断是否存在更好的替代设计。如果受害人能够举证存在更好的替代设计方案,那么应认为产品存在缺陷。例如,美国《侵权法第三次重述:产品责任》就引入了风险效用标准。有观点指出,相较于合理期待标准,风险效用标准属于一种定量分析,不是非此即彼的判断标准,而是对人工智能产品设计方案的综合考察,具有更强的可操作性,更适合用于对人工智能产品缺陷的判断。然而,这种测试方法最大的问题在于过分苛责受害人。与传统产品相比,人工智能产品的构成更加专业、复杂和不透明,受害人对于产品技术原理的了解更少。在此种情况下,要求受害人举证证明人工智能产品是否存在更加合理的替代设计无疑是强人所难。而考虑到人工智能产品运行机制的不透明性,加之数据和算法普遍不开源的商业环境,受害人即使借助专业人士,也很难完成举证。


2.产品缺陷认定的更新。面对人工智能产品的广泛应用,立法急需更新产品缺陷的认定标准。


第一,丰富技术性标准的安全内涵。技术性标准虽然存在诸多不足,但作为判断人工智能产品缺陷的初步标准依然是有必要的。与传统产品相比,人工智能产品具有更强的不可预测性,但仍然具有相对的稳定性和可控性,未知风险的存在并不足以排除技术性标准的适用。与此同时,技术性标准的制定需要融入人工智能风险治理的基因,全面回应未来《人工智能法》有关人工智能安全监管的需求。在此基础上,技术性标准需要反映人工智能产品新的安全需求,至少包括两个方面的需求。一是网络与数据安全。人工智能产品的运行离不开网络与数据的支持,随之而来的却是网络故障、网络攻击、数据泄露事件的大量发生。为此,技术性标准的制定需要特别关注人工智能产品的网络与数据安全。二是伦理安全。以电车难题为例,面对不可避免的碰撞事故,如果自动驾驶系统以人数、性别、种族、收入、年龄等作为选择的依据,那么即使最终其将损害降到最低,也可能因为伦理问题而不被公众接受。对此,2021年德国《自动驾驶法案》第1e条第2款第2项就要求自动驾驶系统必须配备事故避免系统,“在对人类生命的危害无法避免时,不得根据个人特征预先规定其他的权重”。我国《人工智能法(学者建议稿)》第75条第2款也规定:“自动驾驶汽车开发者、提供者应当确保车辆安全,在车辆发生危险时,不得对其他交通参与者进行不合理的差别对待。”


第二,细化不合理危险的判断标准。从域外立法来看,产品缺陷判断的总体趋势是不断融合合理期待标准与风险效用标准。为了让人工智能产品的生产者有一个更加合理的参考标准,未来我国修订《产品质量法》时应当明确产品缺陷的综合判断路径。其中,对于人工智能产品缺陷的判断而言,比较重要的因素包括:(1)产品的说明。相较于通过设计改善产品的安全性能,生产者通过产品说明等警示义务的履行来增加产品安全是一种更加简单、有效以及低成本的方式。人工智能产品并非开盒即用的简单产品,需要重点说明如下事项,以帮助使用人合理使用产品:一是人工智能产品与传统产品的差异,如自动驾驶汽车与传统汽车在使用、操作上的区别;二是功能局限、潜在风险,如人形机器人和人工智能辅助诊断软件的运行范围、运行风险等,使用人是否对人工智能产品负有监督、接管义务等,以便确定人们对于产品安全的合理期待范围。(2)其他产品的影响。人工智能产品具有模块化、网联化的特征,常常需要与其他产品互联使用,故需要特别考虑其他产品对于人工智能产品的影响。欧盟《一般产品安全条例》规定:“连接到其他物品的物品或影响其他物品工作方式的非嵌入物品可能会对产品的安全构成风险。这一方面应作为潜在风险予以适当考虑。物品与外部物品可能具有的联系和相互关系不应危及其安全。”对于人工智能产品来说,需要特别考量与其他产品互联使用产生的数据、网络等安全风险。(3)自主学习能力。人工智能产品具有自主学习的能力,在投入市场后性能会发生一定的变化,对其产品缺陷的说明需要将可预见的自主学习产生的安全风险考虑在内。(4)升级更新。人工智能产品离不开提供者持续提供软件和服务,这就涉及产品的升级更新问题。对于人工智能产品来说,如果生产者未能提供持续的升级更新服务,导致了网络安全、数据泄露等问题,应当认定为产品存在缺陷。当然,提供产品的更新升级本身不应得出该产品先前的版本存在缺陷的结论。


第三,产品缺陷认定的程序规则。除了实体层面,还可以从程序层面缓解产品缺陷的认定难度,降低受害人获得救济的门槛。举证责任倒置对于生产者一方施加了过重的责任,不利于人工智能产业的发展,未来宜从两个方面提高受害人举证的能力。其一,证据开示。受害人举证能力不足的一个重要原因在于信息不对称,人工智能产品具有专业、复杂、不透明的特点,运行数据往往只有生产者一方掌握,故有必要引入证据开示制度。如果受害人提出的事实和证据足以证明其赔偿请求的合理性,那么生产者应当开示其所掌握的相关证据。例如,2021年4月19日,在上海车展中,自称怀孕3个月的车主张女士站在特斯拉展厅的汽车车顶上维权的事件,引起了各方广泛关注。据报道,引发争议的原因在于特斯拉公司拒绝披露事故发生时的汽车数据。对于自动驾驶汽车致损的案件,受害人如果举证其开启了自动驾驶模式、对软件做了及时更新等基本事实,那么其可以请求法院责令生产者开示事故数据,以作出产品是否存在缺陷的认定。当然生产者的证据开示义务必须合乎比例,需要考虑第三方的合法权益,如商业秘密、隐私与个人信息权益保护等。其二,推定规则。对于满足特定条件的情形,法院可以直接推定人工智能产品存在缺陷。我国立法可以参考欧盟《关于缺陷产品责任的指令的提案》第9条以及我国《民法典》第1222条医疗机构过错推定的规则,明确如下可适用过错推定的情形:一是生产者掌握了人工智能产品事故发生的相关证据,但拒绝开示证据。此时,法院有理由推定产品存在缺陷。二是人工智能产品不符合法律法规规定的强制性安全要求。未来我国《人工智能法》应对人工智能产品安全做出诸多规定,包括伦理审查、定期检查和监测、记录日志信息、数据质量、标识义务等。如果受害人能够证明人工智能产品违反了这些强制性的安全要求,那么法院可以推定产品存在缺陷。三是通常情形下损害是由人工智能产品的明显故障造成的。这是侵权法中“事物自道其缘”法理以及“故障原理”的具体适用,即如果事故的具体情形已经非常明显地表明产品存在缺陷,那么法院可以免除受害人的举证责任。



(二)人工智能产品责任

因果关系认定的更新

1.因果关系的认定难题。对于产品责任的证明,除了产品缺陷外,受害人还需要证明因果关系要件。所谓的因果关系,强调的是损害与结果之间的引起与被引起的逻辑关系,包括事实因果关系与法律因果关系。然而,对于人工智能产品而言,因果关系的认定并不容易。


首先,人工智能产品具有自主性与自我学习能力。人工智能产品具有高度自主性,能够独立于人类的干预自主决策甚至自主行动,直接导致损害的发生。与此同时,人工智能产品具有自我学习能力,能够在投入流通后通过自主学习,改变最初的行为设定。特别是以ChatGPT为代表的生成式人工智能,通过海量数据的“投喂”后,大模型会在某个临界值出现“涌现”现象,模型处理复杂问题的能力和精确度突然大幅提升。这使得损害发生的原因更加复杂,难以判断究竟是人工智能产品缺陷造成了损害,还是人工智能产品的自主行为造成了损害,加剧了因果关系认定的难度。有观点指出,由于自动驾驶汽车等智能机器人具备自主学习能力和适应能力,其“后天的”学习和经历可能成为此类系统造成他人损害的一个替代原因,足以使事实上的侵权行为者免于承担责任。


其次,人工智能产品具有专业性、复杂性与不透明性。人工智能产品高度专业复杂,这既体现在产品内部所需要的各种零部件、软件、算法、服务中,也离不开产品运行所依赖的外部环境、数据等因素。人工智能产品在投入使用后,通过与环境进行交互而变得越来越复杂,以致线性因果判断方式须让位于复杂的非线性相互作用因果关系判断方式。与此同时,人工智能技术存在不透明性,人们很难了解人工智能产品究竟是如何作出决策和执行决策的,这会产生无法“再现”事故因果关系的风险。这种不透明性并非生产者有意为之,而是天然地内嵌于人工智能技术之中。这种不透明性使得因果关系的证明对普通用户来说可能更为困难。


最后,人工智能产品应用的多样性。人工智能的应用场景非常丰富,既可能应用于辅助型场景,也可能应用于替代型场景。不同人工智能产品的人机交互情况不同,损害发生的原因也不一样。例如,自动驾驶汽车属于典型的替代型人工智能,机器驾驶取代手动驾驶,人类驾驶员不再参与车辆的驾驶活动,车辆存在产品缺陷通常会直接导致事故的发生。对此,通过适用相当因果关系理论,不难认定产品缺陷与损害之间存在因果关系。与此不同的是,许多人工智能产品仅仅被用于辅助决策,如人工智能辅助诊断软件,机器判断无法直接作用于患者,仅仅是为医务人员提供参考,产品缺陷必须借助医务人员的行为才能转化为现实的损害。这种人机之间错综复杂的关系加剧了因果关系的证明难度,尤其是当人工智能决策和人类监督交织在一起时。


2.因果关系认定规则的更新。面对人工智能产品提出的挑战,因果关系的认定可以采取如下规则。


第一,事实因果关系的认定规则更新。在事实因果关系的认定上,需要区分替代型人工智能与辅助型人工智能。对于替代型人工智能,由于人工智能取代人类直接决策和行动,使用人处于系统外,适用一般的“若非”规则即可。而对于辅助型人工智能,考虑到产品缺陷与损害之间介入了使用人的行为,无法通过“若非”规则来进行判断。此时,可以考虑引入“充分条件之必要因素说”,即如果一个事件能够成为某结果的原因,那么只需它是能够造成该结果的一个充分条件组中的必要要素即可。换言之,是所有先行条件的整体构成了结果发生之充分条件。任何单一因果关系之陈述,均仅构成结果发生之充分条件的所有先行条件之一部分而已。为使构成充分条件之所有先行条件与结果具有不变的关联性,该先行条件必须限于对整体条件之充分性具有必要性之条件。据此,我们需要考察辅助型人工智能对于使用人的最终决策所发挥的作用,以此找出产品缺陷何时构成原因,何时仅仅构成一个条件。如果有缺陷的辅助型人工智能产品输出的信息被使用人完全采信或者部分采信,进而引发损害,那么应当认定产品缺陷与损害之间存在事实因果关系。此时,辅助型人工智能对于使用人的最终判断发挥了实质作用,并且成为最终判断的组成部分,构成导致损害充分条件组中的必要要素。反之,如果使用人的最终决策与辅助型人工智能完全无关,那么辅助型人工智能就不属于充分条件组中的必要要素,产品缺陷与损害之间的事实因果关系就不成立。


第二,法律因果关系认定规则的更新。对于人工智能产品缺陷导致损害的法律因果关系的认定,可以采取相当因果关系理论,但需要处理介入因素的问题。其一,对于人工智能的自主行为,立法不应当认为其构成替代原因。一方面,当前人工智能尚不具备法律主体的身份,也不具有真正的自由意志,人工智能的自主行为仍然被视为产品性能的具体展示,而非区别人工智能产品之外的独立因素。另一方面,从介入因素本身来看,即使人工智能获得法律主体地位,其行为也在被告可预见的范围内,所谓的不可预测性是一种有意而为之的结果,因而未必能构成替代原因并中断因果关系。其二,使用人的行为。对于人工智能产品,使用人的行为能否构成替代原因需要认真考量。根据侵权法理论,第三人行为是否构成替代原因可以通过可预见性规则来进行判断。介入因素要成为能够免除行为人责任的替代原因,其必须是不可预见的。如果使用人的行为超出了生产者的可预见范围,如使用人明知人工智能辅助诊断软件的判断是错误的仍然采用、明知自动驾驶功能有故障仍然开启,那么法院可以将使用人的行为认定为一种替代原因,产品缺陷与损害之间的因果关系得以中断。反之,如果使用人的行为在生产者的可预见范围内,如开启自动驾驶模式后使用人打盹没有接管或者误操作接管等,那么生产者理当能够预见到这种风险,原则上不中断产品缺陷与损害之间的因果关系。对此,我国《关于开展智能网联汽车准入和上路通行试点工作的通知》指出,对于需要安全员执行接管的自动驾驶汽车,当安全员未能及时响应介入请求时,自动驾驶系统应当执行最小风险策略以达到最小风险状态。







请到「今天看啥」查看全文