中国民商法律网
本文原载于《比较法研究》2024年第6期。
【作者简介】胡巧莉,北京大学法学院博士研究生。
【摘要】人工智能依其对民事权益的影响程度,可分为禁用型人工智能、高风险人工智能和低风险人工智能。为平衡技术创新与风险预防之间的关系,宜通过要件的动态化配置来实现对不同风险层级的人工智能侵权的区分评价。在禁用型人工智能侵权场合,服务提供者因创设了“不被容许的危险”而应承担无过错责任,该类人工智能的实质性风险亦可构成损害。在高风险人工智能侵权场合,违反“危险源控制型”注意义务的服务提供者应被推定有过错,除非其证明被侵权人存在故意诱导型介入行为等反驳事由。在低风险人工智能侵权场合,服务提供者仅需承担一般过错责任,相应的注意标准亦低于高风险人工智能侵权的情形,且因其负担的预先审查义务属于事前注意义务的范畴,故其不能依据“避风港原则”免责。由于人工智能具有算法复杂性,三种场合下的因果关系证明均应采纳“关联性”标准,除非服务提供者证明其行为与损害之间不存在因果关系。
【关键词】人工智能服务提供者 风险区分 归责标准 因果关系 注意义务
人工智能是指以机器学习为基础,为实现特定目标而自主运行的系统。人工智能在推进社会进步的同时,也引发了大量的新型侵权案件,典型如自动驾驶引发交通事故,智能机器人伤人,智慧医疗设备手术失误造成医疗损害,生成式人工智能侵害著作权、人格权等。与传统的侵权责任相比,人工智能引发的侵权责任在责任主体确定和责任要件判断两个方面均有所不同。在责任主体方面,目前国内学界已经形成了因人工智能造成的损害应归责于服务提供者的主流观点。本文亦认为人工智能既不具有行为认知能力,亦不具有稳定责任财产,故应将人工智能服务提供者作为承担侵权责任的适格主体。
对于责任要件的判断,国内外理论界形成了“产品说”视角下的产品缺陷责任或其他无过错责任、“法人说”视角下的特殊财产性主体的过错责任、“监护说”视角下的开发者替代责任等观点。但这些观点均未考虑不同的人工智能具有不同层级的风险,不同程度的风险对民事权益的影响存在性质和程度上的差异,亦会导致算法解释透明度的不同,从而影响因果关系要件和过错要素的判断。因此,仅设置单一的归责原则和要件标准均不足以应对不同风险级别人工智能的责任构造需求。目前,国内的《人工智能示范法2.0(专家建议稿)》和《人工智能法(学者建议稿)》并未对不同风险级别的人工智能服务提供者的侵权责任予以区分规范。前者仅一般性地规定人工智能提供者的过错推定责任,后者则对关键人工智能产品和服务的提供者规定了过错推定责任,其他的适用一般过错责任,未能进行更为精细化的规范构造。比较法上可资借鉴的是,欧盟《人工智能法》(Artificial Intelligence Act)提出了风险分级的规制方案,《人工智能责任法令(草案)》(Artificial Intelligence Liability Directive)以此为基础,重点规定了高风险人工智能侵权情形下过错要素和因果关系的证明规则。
人工智能侵权给传统侵权责任的归责原则、因果关系、损害结果等要件的判断带来了挑战,亟需构建与新兴技术特点相适应的侵权责任要件。本文从风险区分的视角出发,在对人工智能进行风险分级的基础上审视一元化侵权责任的不足之处,然后根据人工智能的风险级别明确相应侵权责任的归责标准,讨论不同情形下侵权行为、损害结果、因果关系和过错等要件的认定,以明晰人工智能服务提供者侵权责任的要件构造。
对于人工智能服务提供者应当承担何种类型的侵权责任,目前存在无过错责任和过错责任之争议。不过,这些争议大多受限于单一化的规制思路,“或有或无”的路径忽视了人工智能风险级别的层次性所产生的责任类型化需求。人工智能风险程度的层级差异往往意味着服务提供者在侵权行为样态、损害结果严重性、因果关系可解释性、过错判断等方面的要件差异性。因此,应以类型化的视角构建人工智能服务提供者的侵权责任要件。
(一)人工智能风险级别的层次性
人工智能的风险并不是指自身特别危险之物带来的操作风险,而是本身可能并不危险的算法系统所固有的数字自主风险。人工智能的风险层级取决于其对基本权益、自由、健康和安全等价值的威胁性、对弱势群体的固有风险、风险致损与使用人工智能方式之间的相互作用、所造成损害的严重程度和影响范围、损害结果的可逆性等要素。我国《生成式人工智能服务管理暂行办法》未对人工智能的风险级别作出规范。不过,《深圳经济特区人工智能产业促进条例》第66条和《上海市促进人工智能产业发展条例》第65条明确指出应根据人工智能应用的风险等级、应用场景、影响范围等具体情境实施分级分类差异化监管,具体分为高风险人工智能和中低风险人工智能。欧盟《人工智能法》基于对人工智能风险程度的研判,将人工智能分为了四种更为具体的类型:不可接受的风险、高风险、有限风险、低风险或最小风险。
本文认为,结合上述两个条例对人工智能的分类,可以考虑在借鉴欧盟《人工智能法》的风险分级的基础上将目前的人工智能分为三个层级:第一类为禁用型人工智能,即具有非法风险和对基本权益具有极高威胁的人工智能;第二类为高风险人工智能,即具有对民事权益产生不利影响的固有威胁或缺陷,如果某一人工智能不存在通常固有的高风险但被用于高风险活动的领域,则不属于此类;第三类为低风险人工智能,是指用于日常生活工作场景且一般不会对民事权益造成严重威胁的类型。对于禁用型人工智能和高风险人工智能的具体类型,应随着技术革新进行及时调整,以契合人工智能服务提供者对风险管控的可预见性。
由于不同风险级别的人工智能对民事主体权益的影响存在性质和程度上的差异,若仅设置单一的无过错责任或过错责任,均不足以应对不同风险级别人工智能的责任构造需求。具言之,如果对所有类型的人工智能均适用无过错责任,可能会对风险较低的人工智能形成“手段超出目的”的过度管控,增加了人工智能服务提供者的预期法律成本,甚至阻碍人工智能的创新发展;如果对所有类型的人工智能均适用过错责任,则会导致被侵权人在遭受具有禁用型风险的人工智能侵权时仍需承担较重的举证责任,无法实现对该类人工智能的惩慑目的。因此,较为合理的方案是在平衡创新和保护两大价值的基础上,采取类型化的方法确定不同风险类别人工智能的责任构成,对不同场景下的人工智能侵权采用不同的归责标准与侵权责任要件。
(二)基于风险分级的归责类型区分
归责标准的类型化是明确不同人工智能服务提供者侵权责任的关键。归责是将损害转由原因者承担之法律价值判断因素,核心意义在于使遭受损害之权益与促使损害发生之原因相结合。对于人工智能侵权归责标准的分类基础,有观点主张应当根据损害结果的严重程度来确定:由人工智能造成人身伤害或死亡后果的,适用严格责任;由人工智能造成的名誉或声誉伤害的,则适用过错责任。此种以损害结果为区分标准的观点显然忽视了侵权主体的差异、侵权行为的性质以及特殊保护目的对侵权责任性质的影响。还有观点片面地认为只有风险极低的人工智能才能受传统过错责任的评价,其他人工智能的侵权责任均需适用无过错责任。这既未对人工智能的风险级别进行精细划分,亦会导致大量低风险人工智能被严格管控,进而造成科技创新和权利保护的价值失衡。
本文认为,人工智能服务提供者侵权责任归责标准的依据和性质应取决于人工智能风险的类型和强度。法律既不能过度限制人工智能技术的创新发展,亦不能一味地保护民事主体的利益,而应通过动态化归责来平衡科学技术进步给整个社会所带来的利益与单个主体利益免受新型危险侵害的利益保护之间的关系。
首先,无过错责任和过错责任分别建立在分配正义和矫正正义的基础上,具有不同的制度目的。无过错责任的核心功能是分散风险,例如产品责任为生产者提供了额外激励,生产者往往更能控制产品的风险外溢,这并不是简单地由损害的严重性程度而决定的。类似地,对于本身存在极高风险(例如存在严重安全缺陷)的人工智能,为实现预防和震慑效果,无论其造成的侵权损害结果为人身伤亡抑或人格权损害,均以适用无过错责任为当。因为在此种情形下,人工智能服务提供者掌握着许多非专业人士无法轻易获取或理解的算法决策信息,其应被视为能以最低成本避免相关风险的一方,故由其承担无过错责任有助于提升社会福利水平。而对于本身自主性较弱、风险级别较低的人工智能,在其造成侵权损害时则应考虑相应主体的过错程度来确定责任。因为对其设定无过错责任不会产生任何重大效益,反而可能遏制技术进步。
其次,被侵权人的举证难度也是选择合理的归责原则时的重要考察因素。人工智能不透明的决策过程可能会产生难以预见的风险,被侵权人难以在复杂的算法和代码中识别加害方是否存在过错,举证的信息成本过大。而越是对民事权益具有高度威胁性的人工智能,其自主性和机器学习的程度越高,实现算法解释透明性的难度就越大,对这些人工智能服务提供者采用无过错责任或者过错推定责任的归责路径更有利于保护被侵权人的利益。
综上所述,人工智能的风险级别并非仅为监管目标而孤立存在,其与侵权责任要件构造的立法选择同样密切相关。在进行风险分级的基础上,应根据严格责任、过错推定责任、一般过错责任的规范目的和社会效果进一步明确与风险类型相对应的归责标准。下文将进一步分析禁用型人工智能、高风险人工智能和低风险人工智能的不同侵权样态和利益冲突程度,明确类型化的归责标准,即是否需要过错要件以及如何认定过错。
(三)其他责任要件的动态化配置
除了归责标准的确定(是否需要过错要素),不同风险级别的人工智能服务提供者的侵权行为、损害结果和因果关系的判断也需要进行动态化的配置。
在侵权行为层面,由于人工智能不具有法律人格,无法独立实施相应行为,因此,看似“实施”不法行为的“主体”是人工智能,实际上仍为人工智能背后的服务提供者。其与传统侵权行为的不同之处在于,服务提供者无法在开发或设计人工智能时完全预见各类型的加害行为。在不同风险级别人工智能侵权的场合中,是否构成侵权行为以及侵权行为的内容亦不相同。
在损害结果层面,人工智能侵权对民事主体权益的损害相较于传统侵权具有复杂性和不确定性。与传统的损害概念(即财产或实物等有形损害)相比,人工智能侵权所致的更多是无形的风险和损害。例如由人工智能算法漏洞造成的数据损害,其中可能包括数据被盗,数据被篡改、泄露、破坏等。在某些情况下,损害甚至包括基于算法交易导致的纯粹经济损失。在具有非法风险的人工智能侵权的情形中,人工智能本身具备的极高风险即可能构成符合侵权责任要件保护的损害。此外,由于某些人工智能的“个性化”和“一对一”服务模式,难以制定损害结果的统一判断标准。以生成式人工智能为例,其面对不同服务使用者的提问,产出的结果亦不同,必须进行个例化的标准判断。
在因果关系层面,“算法黑箱”引发了被侵权人的证明难题。人工智能具有极强的学习自主性和算法复杂性,导致信息透明度较低,极大地增加了侵权行为与损害结果之间的因果关系的证明难度。被侵权人在证明因果关系方面处于十分不利的弱势地位。与传统的侵权案件相比,人工智能侵权中的因果进程更加冗长、复杂、不透明。这不仅导致被侵权人难以理解其决策机制,甚至难以将侵害结果追溯到具体的行为主体,因此,需通过降低证明标准或者举证责任倒置的方式保护被侵权人。
因此,为了适应人工智能的自主性、算法复杂性和难以追溯性等特点,在明确侵权行为、损害结果和因果关系的证明标准时需进行适应性的构造,以符合对不同风险级别的人工智能的规制目的。
禁用型人工智能具有法律上不可接受的风险,主要包括但不限于以下类型:第一种是部署了超出个人意识的潜意识技术、蓄意操纵或欺骗技术,或者利用特定群体的年龄、残疾或社会经济状况方面的脆弱性,从而歪曲自然人的行为,可能导致特定主体或特定群体遭受重大损害的人工智能系统。例如由人工智能驱动的旨在扭曲特定群体行为的深度伪造技术、人工智能驱动的针对低收入群体的掠夺性贷款行为等。另一种是预设了算法偏见的人工智能根据自然人的社会行为或个性特征对其进行评估或分类,从而导致集体性的歧视性结果或群体性排斥等不利待遇。例如,忽视对实际行为的分析,仅根据种族、社会地位等要素识别违法犯罪风险的人工智能系统。对于禁用型人工智能应当采取何种侵权责任构造,需基于风险程度与威慑效果的适配性进行分析,比较无过错责任与过错责任的风险分配合理性和行为激励效果。 现代社会的风险是人类制造出来的外部风险,也是科技发展的固有后果。禁用型人工智能具有的风险不仅仅包括传统的有形风险(人身或财产损害),还表现为对人格尊严、隐私安全、不受歧视的权利等无形价值产生严重影响的抽象风险。在现代风险社会,此种抽象风险可能引发的损害后果在程度上并不亚于侵权法中已被施以无过错责任的风险活动类型(例如核设施、民用航空器等高度危险责任)。以人工智能驱动的深度伪造欺骗技术(deepfake)为例,其恶意生成的虚假信息既可能用于政治场域影响社会稳定和国家安全,亦可能用于操纵股票市场而造成重大经济损失,还可能用于AI换脸形成具有侮辱性质的视频、图片,从而导致相关主体遭受人格尊严层面的重大伤害。 这些人工智能应用的具体领域和侵害的法益类型均十分复杂,往往会产生难以计量的有形或无形的风险,因而均被评价为具有不可接受的风险的禁用型人工智能,以防止此类人工智能被滥用,成为操纵、剥削和控制社会的强大工具。在人工智能服务提供者对外提供禁用型人工智能的场合,即便人工智能服务提供者尽到谨慎的注意义务,亦难以阻遏此类人工智能固有的特殊危险,此时如果配置过错责任作为归责原则,则会不当地科加被侵权人对人工智能服务提供者的过错的举证责任,无法体现对禁用型人工智能固有非法风险的评价。具言之,一方面,禁用型人工智能的风险损害自“提供服务”时即产生,即便服务提供者在使用过程中尽到谨慎注意义务,亦无法避免相应的风险后果。通过这些禁用型人工智能服务实现的利益往往是巨大的,无论是提高注意义务标准还是倒置过错要素的举证责任,均无法对人工智能服务提供者产生行为激励效果,无法促使其不开启禁用型人工智能的特殊危险。另一方面,禁用型人工智能的应用对象主要是年龄、身体或社会经济状况等方面处于弱势地位的特殊群体,多数被侵权人对于侵害其权益的人工智能是否属于禁用型人工智能并不具备充分的专业知识和判断能力,设置过错举证责任增加了作为弱势受害人的被侵权人的举证负担,不利于保障其损害赔偿请求权的顺利实现。 与过错责任不同,无过错责任的理论基础包括危险开启/控制、报偿、损害预防和保护弱势受害人。其主要政策目的在于通过分配正义合理地分配“不幸损害”,免除被侵权人证明侵权人过错的举证责任,使得被侵权人易于获得损害赔偿,避免侵权人逃避侵权责任。首先,禁用型人工智能的“不可接受的风险”是否足以引起无过错责任(严格责任),关键取决于其具有的“不可接受的风险”可能导致损害的概率和量值。根据公认的观点,无论是巨大损害的微小概率,还是微小损害的巨大概率,均足以构成无过错责任。禁用型人工智能的风险具有潜伏性、扩散性和不可逆性,一旦现实化,其后果相当严重。只要行为人提供该种服务(开启危险),则大概率会产生财产损害或人身权益损害,足以构成以风险为基础的无过错责任。其次,无过错责任也并不完全建立在风险因素上,其还包括损害预防和保护弱势受害人的利益等考虑。上文已充分阐明对禁用型人工智能配置过错责任无法实现预防功能和保护弱势群体的功能,从而难以完全实现“报偿”目的。最后,从规制目的而言,禁用型人工智能侵权与我国民法典第1247条规定的禁止饲养的烈性犬等危险动物造成他人损害的侵权责任较为类似。禁止饲养的危险动物自身极具危险性,且该危险并非动物饲养人或管理人可以控制,故应对饲养人或管理人违反禁止性规定饲养烈性犬的可非难性科加更为严格的无过错责任。类似地,违反禁止性规定的人工智能类型也具有上述极度危险性,只有适用严格的无过错责任才能更好地警示人工智能服务提供者合法、合理地提供人工智能服务。 综上所述,为了有效抑制服务提供者提供禁用型人工智能服务,并且在其一旦提供该类服务后即能通过赔偿责任填补相应主体因此遭受的损害,宜采纳无过错责任作为其侵权责任的归责原则。具言之,只要服务提供者引致或者利用了禁用型人工智能的“不被容许的危险”,就应当对此种危险给他人所造成的损害承担赔偿责任,无需过错要件。 需要注意的是,对于禁用型人工智能无过错责任的具体责任类型,既有的产品责任抑或高度危险责任均无法完全与其适配,需构建独立的无过错责任类型。首先,禁用型人工智能并不一定以“产品”的形式出现,多以嵌套的方式依附于其他产品。适用产品责任既要突破既有的对产品的“有形性”的概念预设,亦要构建相应的产品缺陷的认定标准,解释成本较高。其次,虽然有观点认为正义的均等原则可以将“危险责任”类推扩张适用于未被特别法规定、但有类似危险的物或经营活动,但我国民法典第1237条至第1240条所列举“高度危险责任”旨在调整法律允许的危险所引发的损害分担问题,与禁用型人工智能产生的“不被容许的危险”存在差异。为了避免体系冲突,不宜将禁用型人工智能的侵权责任归入高度危险责任。不过,举轻以明重,通过与高度危险责任对比可以进一步说明对禁用型人工智能侵权采纳无过错责任的合理性。现行法上未被禁用的“高度危险物”致人损害的,尚需承担高度危险责任,这些被禁用的人工智能类型具有更高的风险和更严重的损害结果,相应的服务提供者至少应当承担与高度危险责任相当的无过错责任,才能实现损害预防和风险分配的规范目的。 对于禁用型人工智能服务提供者无过错责任是否成立,还需结合禁用人工智能的特点构建相应的责任要件,包括侵权行为、损害结果以及两者之间的因果关系。 侵权法意义上的“行为”是一种可以归责于行为人的活动,是在行为人的意识控制下,由其意愿所引导的自主行为。每一种被禁止的人工智能都可能对个体构成严重威胁,而它们之间日益增长的交互发展还会进一步加剧这种风险。禁用型人工智能服务提供者的侵权行为表现为服务提供者的作为和不作为。作为是指其设计并提供非法人工智能;不作为则是指在提供人工智能时未能尽到合法审查义务。由于人工智能造成的损害可能不会立即显现出来,在判断损害结果时,则需接受“风险即损害”的观念,因应风险社会的现实需要。例如在涉及人工智能偏见的案件中,受害人难以及时获悉人工智能作出的决定涉及非法歧视。实践中的典型案例即为荷兰税务机关使用具有非法歧视的人工智能风险评测系统以发现是否存在儿童保育福利欺诈行为。自2013年起,该税务机关仅根据人工智能算法预测的风险指标即对数以万计的家庭(通常是收入较低或者属于少数民族)予以高额处罚。直至2019年,相关受害者才发现该算法系统对特殊群体存在偏见和非法歧视。然而,受害人因巨额债务陷入破产、被迫自杀以及多数儿童被送至寄养的严重后果已难以被挽回。又如,根据自然人画像评估潜在刑事犯罪风险的人工智能识别系统,违反了无罪推定原则,很容易造成错误逮捕的后果,待到发现人工智能识别错误之时,受害人已经因错误逮捕遭受了严重损害。此种基于人工智能分析的欺诈预测和犯罪风险预测正是属于上文所述的具有不可接受的风险的禁用型人工智能。如果将对损害概念的理解仍局限于现实化的人身或财产损害,则无法及时填补受害人因禁用型人工智能的特殊风险所导致的损害。 现代侵权法损害最大的变化即损害的观念化和抽象化,这意味着对损害的确定性要求大为降低。在禁用型人工智能侵权的场合,考虑到人工智能的风险异常性、应用领域的特殊性、侵害法益后果的严重性、采取预防措施的可能性等要素,将满足一定条件的风险视为可赔偿的损害,是风险分配的一种具体实现方式。 不过,由于人工智能具有自我学习和不断更新的特征,其所形成的决策或者生成的内容很可能会超出服务提供者的预期,这会涉及开发风险抗辩(development risk defence)的问题。人工智能服务提供者可能试图辩称:人工智能具有极强的自主性,其如何基于算法学习而自主运行无法被准确预测,相应地,其所造成的损害亦不可预见。然而,人工智能的不可预测性本身就是可以被预见的,不需要特定损害的可预见性作为要件构成,特别是在损害的类型和性质并不属于非常特殊的情况。而且,人工智能服务提供者掌握着许多被侵权人无法轻易获取或理解的信息,只有其自身才能准确评估人工智能算法结构的效益和风险。因此,其应被视为能以最低成本规避人工智能风险的一方。即使在人工智能投放市场后相关缺陷才被发现,只要服务提供者仍控制着更新或升级技术的权利,其仍需承担与技术更新有关的剩余风险,对不可预见的损害承担责任。因此,基于人工智能不可预见性的开发风险抗辩不能成立。 在人工智能侵权中,事实上的因果关系较易判断,但法律上的相当性因果关系囿于算法透明度的问题难以证明。就“相当性”的判断而言,一般要求“应以行为人之行为所造成的客观存在事实为观察的基础,并就此客观存在事实,依吾人知识经验之判断,通常均有发生同样损害结果之可能者,该行为人的行为与损害间即具有相当因果关系。此种基于吾人知识经验所为的判断,在某种程度是常识或直觉的判断”。然而,被侵权人一般不具备人工智能相关的技术素养。由于人工智能的不透明性和技术复杂性,被侵权人与服务提供者之间存在着巨大的“信息鸿沟”。禁用型人工智能中导致侵权的算法结构既可能是提供者自行开发设计的,亦可能是在深度学习的过程中系统根据其运行以来收集的大量外部数据修改的。被侵权人无法全面地收集有关原始算法、数据集、系统分析以及算法决策过程中的嵌入式标准,往往需要支付高额成本由专家进行技术分析,才可能在冗长复杂的软件代码中找出漏洞。有些人工智能系统在使用后就无法进行再次检索,这更导致了对特定结果极高的取证成本和难度。此外,人工智能的决策结果具有不可预见性,即便产生了严重的损害结果,可能仍难以符合“相当性”的要求。据此,如果仍要求被侵权人证明服务提供者的侵权行为与损害结果之间具有“相当性因果关系”,则会极大地降低被侵权人的求偿可能性。 相较于一般过错责任下的因果关系理论,无过错责任中的因果关系理论以减轻受害人举证责任为中心,关键在于风险实现与损害后果之间的关联性。综合考虑人工智能造成损害(包括风险)的极大可能性、事后可追溯性、可能促成原因的技术内部过程的可理解程度(信息不对称)、技术收集和生成数据的事后可获取性和可理解程度、潜在和实际造成损害的种类和程度等因素,在人工智能侵权场景中应降低对因果关系证明的要求,无需受到“可预见性”和“引起与被引起”的判断条件的严格限制,而是将相当因果关系回归至“关联性”的路径上,即直接以“不被容许的危险”为中心,证明侵权行为与损害结果或充分危险性间的关联性,摆脱传统概率论的桎梏。具言之,在禁用型人工智能侵权的场合,被侵权人仅需证明该人工智能创设了“不被容许的危险”,且该危险与其遭受的损害结果之间存在客观关联性,不需要达到“高度盖然性”标准,即可满足因果关系要件。除非服务提供者能够证明其行为和损害结果之间不存在因果关系,例如损害结果的发生系由被侵权人故意引起(受害人风险自担),才能排除侵权责任的承担。高风险人工智能是指对人们的安全、健康和基本权益产生重大影响的人工智能类型,例如自然人的生物识别和分类、重要基础设施的管理和运行、教育和职业培训就业等。人工智能的不透明性、自主性和有限的预先支配性等特点往往会增加被侵权人证明过错事实的成本,而相关事实的举证对人工智能服务提供者而言则相对容易。当被侵权人对过错要素举证存在困难时,立法者往往倾向于规定无过错责任。但需要注意的是,对于仅存在举证困难的情况,可以通过将举证责任倒置的方式平衡利益,无需完全排除过错要件。风险程度低于禁用型人工智能的高风险人工智能侵权时,典型如高度自动化驾驶汽车(L4)或完全自动化驾驶类汽车(L5)发生侵权事故的场景,对于高风险人工智能服务提供者的责任标准可以考虑回归到过错责任推定的方案。 高风险人工智能对民事权益具有较高威胁性,服务提供者的获益与社会中其他不特定第三人遭受损害的风险之间存在严重的反向比例关系。但由于人工智能侵权的场合大多涉及高深的科学知识和专业领域,要求受害人证明被告具有过错,不仅旷日费时,且极端困难,难以应对科技发展对既有规范内容的冲击。对于高风险人工智能侵权应当采取何种归责标准以平衡科技发展和权益保护两种价值,不无疑问。 虽然高风险人工智能可能对人们的基本权益产生严重影响,但这不意味着需要配置无过错责任。高风险人工智能创设的高风险是法律所允许的危险(例如自动驾驶或智慧医疗),通过过错要素亦能够实现激励服务提供者提高注意义务,防止损害发生的效果。反之,如果将高风险人工智能服务提供者的侵权责任设置为无过错责任,会使他们的研发活动低于有效水平,因为负外部性(即危害)被内部化,而正外部性(即对社会的外部利益)可能不会全部回归至他们身上。首先,无过错责任无法激励人工智能服务提供者采取更为谨慎的行为。因为在完全补偿的情形下,无论其采取了何种预防措施,仍需将全部的社会成本内部化。其次,在风险内部化的背景下,人工智能服务提供者必须考虑开发运营某项高风险人工智能的预期收益是否超过高风险可能造成的损害。一方面,高风险人工智能可能造成的损害是不可预见的,服务提供者难以权衡尽职调查措施的成本和可能造成的损害的成本。另一方面,如果收益与风险不对等,则服务提供者不会开展有风险的活动,将严重挫败其开发涉及重要基础设施、公共服务等高风险人工智能的积极性。例如目前高速发展的自动驾驶领域,其对汽车行业乃至社会进步具有巨大价值,但实践中逐渐呈现出一旦自动驾驶车辆出现交通事故,自动驾驶服务提供者则需承担严格的产品责任和高额赔偿费用的倾向。例如特斯拉因增强型自动驾驶仪碰撞预警、自动刹车等功能的缺陷面临了大量的集体诉讼,诉讼成本的增加和严格的赔偿责任无疑会在一定程度上挫败自动驾驶技术研发的积极性。最后,由于服务提供者承担了全部成本,严格的赔偿责任无法激励被侵权人在他们也能影响事故发生可能性的情况下采取适当的注意措施进行减损。因此,在将严格责任适用于人工智能时必须限制在合理的范围内,充分考虑风险的严重性、采取谨慎措施以预防损害的可能性等要素,以促进对人工智能的信任。对于高风险人工智能,其应用领域多为常见的产品(例如广泛使用的自动驾驶汽车或者自动机器人),对社会进步具有重要意义且尚未达到异常危险以至于需要被禁用的风险程度,因此不必配置无过错责任,可通过过错要素激励服务提供者提升注意标准。 不过,高风险人工智能的算法设计十分复杂,如果对服务提供者适用一般过错责任,将证明责任配置给被侵权人一方,则可能导致被侵权人无法受偿或者受偿不充分的结果。高风险人工智能的复杂性、自主性和不透明性(所谓的“黑匣子”效应),可能使不具备相应专业知识的被侵权人无法识别服务提供者是否存在过错,基于一般过错责任主张的侵权损害赔偿请求权难以有效成立。尤其是在人机交互的场景下,被侵权人既难以识别具体责任人,亦无法明确哪些行为属于服务提供者的注意义务范畴。例如在智慧医疗场合中,用于诊断病人疾病的智能机器人或辅助设备出现故障导致病人被错误治疗时,病人难以获知究竟是智能机器出现了问题,还是医护人员存在判断失误,即便其明确知道智能机器出现了失误,亦不具备医疗和人工智能方面的专业知识,尤其是在人工智能作出了不可预见的决策时,更难以举证证明过错要件。由此可知,一般过错责任的方案在风险分配上偏倚了掌握大量专业信息且最能控制和降低风险的服务提供者,对被侵权人科加了过重的举证责任。 与一般过错责任不同的是,过错推定责任则通过可反驳的推定照顾受害人,减少受害人和侵权人之间的信息不对称,降低举证难度。这种以推定违反客观注意义务为基础的责任制度具有足够的动态性,能更好地适应人工智能技术的发展。在责任制度以预先设定的注意义务违反作为基础时,相应的高风险人工智能生产者可能会更有动力去开发更为安全的人工智能,对潜在的伤害预先采取动态性的保障措施,提升解释过程中的透明度。为了避免承担责任,高风险人工智能服务提供者需要证明根据当时该领域的知识现状和科学发展水平,在未违反技术更新义务的前提下其已经履行了一切可以合理预期的防护措施。在其承担了过错要素的证明责任后,则会产生促使其采取有效预防损害的措施的有效激励。 综上所述,在充分考虑高风险人工智能服务提供者的过错可能性、证明有无过错的实际能力、导致损害的活动的特殊危险性、损害的性质和范围后,对高风险人工智能服务者侵权责任的规制应次于严格责任,采纳过错推定的责任方案。具言之,高风险人工智能服务提供者不能证明自己没有过错的,则需要承担侵权责任。 高风险人工智能侵权与前述禁用型人工智能侵权相比,在损害结果类别(有形或无形)和因果关系判断标准(侵权行为与损害结果之间具有关联性)方面并无较大差异。值得注意的是,欧盟《人工智能责任法令(草案)》对高风险人工智能过错侵权情形下的因果关系判断采用了“可反驳的因果关系推定”(rebuttable presumption of a causal link)方案,推定被告的过错与人工智能系统产生的输出或人工智能系统未能产生输出之间存在因果关系。这与本文所主张的因果关系证明方案类似,为了应对人工智能的算法复杂性,被侵权人仅需证明高风险人工智能服务提供者的侵权行为与损害结果的产生具有客观关联性,由服务提供者证明两者间不存在因果关系。 不过,高风险人工智能侵权在侵权行为和过错要件层面与禁用型人工智能侵权有所不同。首先,侵权行为表现为对特定注意义务的违反事实,与禁用型人工智能创设的“不被容许的危险”并不相同;其次,过错举证责任倒置由人工智能服务提供者承担,且原则上推定其有过错,除非提出有效的反驳。为了避免高风险人工智能的风险溢出,人工智能服务提供者需承担相应的注意义务,具体包括安全维护义务、算法解释义务等,其提出反驳时应当证明自己已经履行了各项注意义务。下文重点针对高风险人工智能侵权中服务提供者的注意义务和可反驳的过错推定展开分析。 我国民法典第1165条第2款规定:“依照法律规定推定行为人有过错,其不能证明自己没有过错的,应当承担侵权责任。”对高风险人工智能服务提供者采纳过错推定的归责标准意味着,在损害事实发生后,基于其违反特定注意义务的客观事实而推定其具有过错,从而免除受害人对过错的证明责任,并由服务提供者证明自己不存在过错。由此可以抽象出高风险人工智能服务提供者过错推定的规则:用户或第三人在使用高风险人工智能的活动中受到损害,如果高风险人工智能服务提供者存在违反应当遵守的注意义务规范的行为的,推定其存在过错,应承担侵权责任。据此,明确高风险人工智能服务提供者的注意义务十分关键。 《生成式人工智能服务管理暂行办法》第7条规定了生成式人工智能服务提供者的数据安全义务、个人信息保护义务等,但尚不全面,仍需进一步予以明确。从本质上而言,人工智能服务提供者的注意义务属于交往安全义务或保护义务的范畴。交往安全义务分为“法益保护型”和“危险源监控型”,前者是因明示或默示的法益保护产生的义务,后者是危险源的开启者有义务控制该特定危险源不危及他人的义务。高风险人工智能中交往安全义务的产生基础有风险开启、增加的方式和范围,服务提供者对风险的可控制性和评估,从风险中的获益以及信赖保护等,高风险同时也意味着产生损害结果的较高客观可能性。因此,高风险人工智能的服务提供者主要承担的是危险源监控型的交往安全义务。具言之,高风险人工智能服务提供者的注意义务贯穿人工智能设计、生产、投入市场、用户使用等全过程,包括事前审查义务、持续性的安全维护和技术更新义务和算法解释义务等。首先,高风险人工智能服务提供者需充分识别和分析系统的已知风险和未来可能出现的剩余风险,对已知风险采取合理的消除和控制措施,对无法解决的风险采取适当的调节措施,尽到及时的风险管理义务,确保该高风险人工智能按照预期目的运行。其次,在设计和运行高风险人工智能的过程中需充分依据我国数据安全法尽到数据安全保护和治理的义务,考虑特殊类别的数据治理要求,使用的安全和隐私保护措施的技术(例如匿名化或加密),对自然人尤其是儿童的基本权利和自由采取适当的保障措施。再次,人工智能服务提供者的更新义务在于保持人工智能服务与预期目的相符,在类型上包括创建、告知和提供服务,一般不包括安装义务。如果由于消费者的疏忽导致未能及时安装更新引发瑕疵,则不属于人工智能服务提供者的瑕疵担保义务。最后,服务提供者需保障高风险人工智能的“运行日志”具有可追溯性,如持续性记录的使用、时间戳数据的记录以及输入、输出和决定的覆盖范围、决策逻辑等。此外,高风险人工智能还应附有以适当数字格式或其他方式使用的说明,其中包括用户可访问和可理解的简明、完整、正确和清晰的信息,例如高风险人工智能系统的性能特征、功能和局限性等。为了保持高风险人工智能系统运行的算法透明度,高风险人工智能服务提供者应当承担相应的算法解释义务,尤其是涉及利用高风险人工智能作出自动化决策的系统。人工智能服务提供者的算法解释义务是指在通过人工智能作出对个人权益有重大影响的决策或行为的场合,个人有权要求人工智能服务提供者予以说明。此种算法解释义务亦贯穿于人工智能系统提供服务的全部生命周期,具体可分为事前解释、事中解释和事后解释。事前解释主要是为了实现“预警型透明”,正如个人信息保护中要求敏感个人信息处理者对处理相应信息的运行机制和可能的重大影响进行解释。高风险人工智能作为具有潜在重大影响的系统,其服务提供者亦需在事前履行相应的解释和预警义务。事中解释主要是为了实现“鱼缸型透明”(fishbowl transparency),让用户能够获取人工智能系统如何运行并作出行动的具体信息,解决“是什么”的问题,且需要根据事中用户的需求采取纠偏措施,保证系统在预期目的内运行。事后解释主要是为了实现“析理型透明”(reasoned transparency),主要解决“为什么”的问题,进行“事后归因”。人工智能服务提供者需在产生侵权损害后解释人工智能系统得出某种决策或者实施某种行为的合理性,如果人工智能服务提供者无法解释或者拒绝解释,则应推定其存在过错。 对于高风险人工智能服务提供者的注意义务标准,有观点在分析因现代科技危险造成而权利侵害时指出:“若对现代科技危险之管领者,科以危险防免之义务,并类推适用特殊侵权行为的规定,只要是因现代科技危险致生权利侵害,皆推定违反危险防免义务,进而透过违法性推定过失之技巧,并将注意之标准提高到最高的水准,使举证推翻推定的可能性降低到零,则交易安全义务违反之责任,实质上与无过失的危险责任不相上下。”此种观点实际上将现代科技产生的侵权责任设定为无过错的危险责任,否定了相关主体对推定的过错进行反驳的机会。如此,高风险人工智能服务提供者的过错推定责任将与前述禁用型人工智能服务提供者的无过错责任无异,无法实现分级管控风险的价值理念。 过错推定属于法律推定中对事实的推定,即便具有一定合理性,也未必全部符合实际,理应允许反驳和争议。在过错推定责任中,能够构成免责事由的类型分为两种:一种是负有监管义务的主体证明自己尽到了管理职责或警示义务的,例如无民事行为能力人在教育机构学习期间受到人身损害,如果教育机构能够证明尽到了教育、管理职责的,则不承担侵权责任;另一种是被侵权人自身存在故意或者重大过失的过错,例如因高度危险物致损,占有人或使用人如果能够证明损害是因受害人故意或者不可抗力造成的,则不承担侵权责任。 相应地,在高风险人工智能侵权中存在两种可构成反驳的免责事由:第一种是高风险人工智能服务提供者已经履行了上述注意义务,在提供人工智能服务时采取了合理预防风险的措施。需要注意的是,高风险人工智能服务提供者的注意义务涵盖了人工智能运行的整个生命周期,包括对技术的及时更新和升级,因此其不能主张基于开发风险的技术性抗辩。第二种是被侵权人使用特定人工智能时存在故意或者重大过失,其行为已达到严重干扰人工智能系统运行条件的程度,是一种“明知且自愿地进入使自己权益遭受危险的境地”的行为。承担因自身行为引发的损害符合责任归属的基本原则,对任何人而言都是一种激励机制,能够使其尽可能地防止出现损害或者扩大损害。需要区分的是,如果被侵权人存在诱导行为,不能一概地认定人工智能服务提供者得以免责。如果诱导行为属于人工智能服务提供者法定注意义务中应当规避的行为类型,例如输出具有歧视性或侮辱性的言论,则属于人工智能服务提供者自身的过错,即未尽到预防性或者中断非法内容的注意义务。如果诱导行为不属于人工智能服务提供者法定注意义务的规制范畴,典型如故意违反使用说明而滥用人工智能,此时由于用户自身的风险行为导致其遭受并非人工智能本身的风险性所产生的典型损害,构成对因果关系的中断,应由其自担风险。低风险人工智能主要是指垃圾邮件过滤器、视频游戏算法、生成式人工智能等本身不具有固有高风险的人工智能类型。人工智能的风险越低,法律对其的态度就越应当“松动”,否则难以激励科技对社会发展的有利影响。因此,低风险人工智能的责任模式也应置于过错责任的框架下。具体采纳过错推定责任还是一般过错责任,则需比较低风险人工智能和高风险人工智能在权益危害程度方面的差异。
(一)以过错责任为归责原则
相较于高风险人工智能,低风险人工智能的运行和使用一般不会导致使用人或者第三人的基本权益遭受严重损害,在损害程度和波及范围方面均具有较低的风险外溢性。而且,低风险人工智能的算法设计和运行机制往往更加简单且透明,在侵权致损的情况下不会对被侵权人造成过重的举证负担。基于该类人工智能风险程度较低和鼓励合理使用人工智能技术的综合考虑,由被侵权人而非低风险人工智能服务提供者承担对过错要素的举证责任是妥当的。如果对低风险的人工智能适用无过错责任或者过错推定责任,可能会导致对人工智能的过度管控,产生前述的抑制科技创新和社会进步的负面效果。例如在域外实践中,有被侵权人向提供人工智能驱动的GPS设备的生产商提出了严格责任之诉,但在该案件中,生产商的过错十分易于被证明(其将公交车导航至了事实上无法开车通过的立交桥),适用一般过错责任即可实现对该类低风险人工智能的规制目标。在以ChatGPT为主的生成式人工智能侵权案件中,此种人工智能服务提供者通常承担的也是违反注意义务(基于行业惯例、商业实践等)的过错侵权责任。从成本收益和风险分配的视角而言,不宜直接推定低风险人工智能服务提供者存在过错,适用一般过错责任即可达到治理风险的效果。
在实践中还需关注的一个重要问题是,即便是风险较低的人工智能,也可能被利用并实施高风险的行为从而对相应主体造成较为严重的人身损害或财产损失,此时应对服务提供者采取何种归责标准?有观点指出,与受到高风险人工智能侵害的主体相比,受到不被认为是高风险人工智能严重侵害的主体在主张损害赔偿时会处于非常不利的地位。这一观点与上文所述的以损害严重性作为归责分类基础的主张实质相似,一定程度上混淆了“通常风险”和实施溢出通常风险的行为的区别。归责标准的预先设定系建立在某类人工智能的“通常风险”这一基础上,不能仅根据损害后果的严重性随意改变。而且此种情况下服务提供者明显未遵循特定人工智能的预期目的或违反了基本操作程序,主观故意的要素较为明显,被侵权人对过错要件的证明并不存在特殊困难,无需倒置举证责任。因此,即便服务提供者利用低风险人工智能从事高风险活动产生严重损害,亦不适用前述高风险人工智能场合的归责标准。
(二)服务提供者注意标准的调整
在低风险人工智能侵权的场合,权益侵害、损害结果和因果关系这三项要件与上述高风险人工智能的情形并无太大差异,核心差异在于过错要素(注意标准)的认定。判断低风险人工智能服务提供者是否存在过错的关键在于明确其注意义务的范畴。在服务提供者违反注意义务并造成相应损害,且二者之间存在基于关联性的因果关系时,则可以认定其承担过错责任。
在注意义务的具体内容方面,服务提供者需严格遵循事前审查义务、持续性的安全维护和更新义务、算法解释义务的要求。具言之,低风险人工智能服务提供者在事前需履行安全评估与算法备案义务,在运行中遵循公开透明原则,履行算法纠偏和可解释性义务,确保算法生成和优化的训练数据具有合法性。服务提供者还应指导用户理性地使用人工智能服务,避免诱导用户实施不法行为,监管人工智能的“输出内容”合法合规。对于具有人机互动功能的低风险人工智能,服务提供者必须告知用户这些系统的运行情况和设计目的,以便用户自主选择是否使用以及如何使用。
对于注意标准的高低,一般而言,行为越具有危险性,行为人的注意义务就越须达到更高的标准。注意标准随相关活动的“危险性”高低程度而增加或降低。如前所述,低风险人工智能侵害的法益位阶、可能造成的损害后果以及侵害状况的危险性(发生侵害的概率)明显低于高风险人工智能。因此,低风险人工智能服务提供者的注意义务程度应低于高风险人工智能服务提供者。
(三)与网络侵权责任“避风港原则”的关系
由于低风险人工智能主要是内容生成式系统、AI识别、决策分析式软件等依托网络服务的类型,将低风险人工智能的侵权责任处理为一般过错责任后,需要进一步回应此种过错责任与我国民法典第1194条至第1197条规定的网络用户、网络服务提供者的侵权责任之间的关系。虽然第1194条在表述上没有涉及“过错”,亦未提到“造成损害”,但这并不意味着其采纳了无过错责任的归责标准,宜将其解释为用于协助判断网络服务提供者是否存在过错的注意性规定。需要进一步思考的是:能否将低风险人工智能服务提供者视为网络服务提供者并适用“避风港原则”和“反通知规则”?
从概念解释和条文意旨的角度来看,目前的低风险人工智能类型多样,显然无法完全被网络服务提供者这一概念和处理的情形完全涵盖。不过,分析的重点不在于低风险人工智能是否“属于”网络服务提供者,而是在低风险人工智能引发侵权的情形下,是否具有适用“避风港原则”或“反通知规则”的必要性。
首先,避风港原则和反通知规则的实质在于预设网络服务提供者不承担对网络侵权行为的预先审查义务。免除其预先审查义务的原因在于传统网络服务提供者无法对网络用户的“信息上传行为”进行有效控制。对比之下,低风险人工智能服务提供者基于较强的AI技术和算法的控制力,能够通过一些技术性手段来规范用户行为,其需要履行的的注意义务更是贯穿于事前、事中和事后整个生命周期。尽管低风险人工智能服务提供者的注意标准低于高风险人工智能的场合,但其仍需尽到信息审查、数据纠偏等多项安全保障义务,以规避用户利用低风险人工智能实施不法行为(例如用户诱导人工智能进行虚假陈述、散布传播虚假信息或者询问的问题表明了其意欲或有可能从事侵害他人人身财产安全的行为,甚至犯罪行为)。如果低风险人工智能服务提供者未采取技术性防范措施规制用户诱导行为,则会构成过错侵权责任,根据其行为程度可能构成教唆或帮助侵权等形态。
其次,低风险人工智能所输出的内容并不单纯属于用户的输出内容。以生成式人工智能为例,服务提供者应依法承担“网络信息内容生产者责任”(《生成式人工智能服务管理暂行办法》第9条),意即其自动生成的文本、图片、音频、视频等仍属于人工智能服务提供者生成的信息,而非用户利用网络服务实施侵权行为,不符合网络侵权责任的要件内涵。不过,这不意味着用户无需承担责任。在用户存在共同过错时,其仍需与人工智能服务提供者承担连带责任。
再次,网络侵权责任处理的典型情形是网络用户利用网络服务侵害第三人权益。在用户利用低风险人工智能侵害第三人权益时,如果允许人工智能服务提供者以“避风港原则”作为免责事由,则可能导致第三人难以在人工智能系统之外明确适格的责任主体,从而增加其权利实现的成本,无法实现合理监管人工智能的预期目的。对低风险人工智能服务提供者的侵权责任采取一般过错责任,而非采取严格责任或者过错推定责任,已经是基于风险分级管控的视角对服务提供者的责任进行了比例性的限制。在实践中,裁判者可以通过动态衡量服务提供者的注意义务内容而控制责任水平,无需再赘余地适用网络侵权责任避风港原则进行责任限制。
虽然在低风险人工智能侵权的场合不必适用避风港原则,但这并非意味着权利人无权通知服务提供者采取删除、屏蔽、断开链接等必要措施。只是这种“通知”与“避风港原则”语境下的“通知”并不同质,本质是权利人要求服务提供者承担侵权责任的具体方式。例如采取停止生成、停止传输、消除等处置措施或采取模型优化训练等措施进行整改,属于承担停止侵害、排除妨害、消除危险等侵权责任。此外,服务提供者发现使用者利用生成式人工智能服务从事违法活动的,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施(《生成式人工智能服务管理暂行办法》第14条)。如果使用者提出证据对上述侵权事实予以反驳,则必须经过法定程序予以认定。人工智能服务提供者无权自行根据使用者提供的初步证据中止履行前述责任,这也是其与“反通知规则”的核心差异所在。
新兴科技的迭代发展使得人类社会进入了现代风险社会,各国为了回应新型的侵权形态,或以单行法的方式调整新型风险活动,或在民法典体系内尝试通过各种解释扩大过失责任的保护范围。人工智能技术在推动产业变革的同时,也引发了特定技术性风险。这种具有不可预测性、算法复杂性和层次多样性的风险截然不同于磨坊风车时代被视为风险的“受惊的马与坍塌的脚手架”。由于法律规则往往受制于作为调整对象的生活事实,这些外在的现象变迁导致既有的侵权责任法在处理人工智能侵权的问题上略显棘手,尤其是在确定责任要件的问题上面临严峻挑战。
作为一个为理性所支配的法律,侵权责任法不能要求一个行为不谨慎的人对他人因其行为所产生的一切损害承担赔偿责任。虽然某些类型的人工智能存在诸多风险,但如果在厘定标准时偏向严格的决定论而抵制自己责任这一原则,必然会产生过度限制人工智能服务提供者行为自由的结果,一概采纳“风险成本内部化”的方式而建立单一的责任制度难免会抵消相关主体谨慎规避损害的动力。因此,合理的方案是基于风险级别与法律规范强度的适配,对禁用型风险人工智能、高风险人工智能、低风险人工智能的服务提供者采取类型化的归责标准。在严格责任、过错推定责任和一般过错责任的不同方案中构建分层责任机制,合理选择是否需要过错要素的介入,对侵权行为、损害结果和因果关系要件进行动态化调整,从而避免“一刀切”的规范模式,以缓解技术进步和风险防范之间的紧张关系。
中国民商法律网
本文转载自微信公众号“比较法研究”,点击文末“阅读原文”可跳转至原文。【温馨提示】由于微信公众号推送规则的改变,未对本公众号设置星标关注的读者,将难以第一时间接收到本公众号每日发布的前沿讯息!星标关注操作指南如下: