专栏名称: 中国民商法律网
中国民商法律网由王利明教授创办并提供运作资金,以公益、学术和非营利为发展理念,旨在为关注中国法治进程、学术发展的人士提供民商法前沿信息。倡导公开、公正的学术研究态度,为学术争鸣提供理论平台,推动中国司法实践发展。
目录
相关文章推荐
最高人民法院  ·  司法访谈 | ... ·  21 小时前  
Kevin在纽约  ·  最后,她决定选择这种方式与TA在一起。 ... ·  昨天  
51好读  ›  专栏  ›  中国民商法律网

戴昕:无过错责任与人工智能发展——基于法律经济分析的一个观点|前沿

中国民商法律网  · 公众号  · 法律  · 2024-09-13 11:30

正文


中国民商法律网


本文原载于《华东政法大学学报》2024年第5期。


【作者简介】戴昕,北京大学法学院副教授,法学博士。


全文共20721字,阅读时间51分钟。

【摘要】如何制定人工智能致害的侵权责任规则,是人工智能立法领域的一个困难议题。由于黑箱系统的作用机制难以解释,以及致害过程有多方参与,人工智能致害侵权如适用过失责任,将产生较高制度成本。适用无过错责任不仅制度成本更低、救济效果更好,而且结合法律经济分析有关责任规则影响注意水平和行为水平的原理,可知其未必会导致对人工智能创新活动的过度抑制。同时,尽管基于行政监管的风险规制是应对人工智能致害风险的最主要制度形态,但侵权赔偿责任,特别是无过错责任的设置,将有助于维护社会对人工智能产业及人工智能监管体制的信任。

【关键词】无过错责任 注意水平 行为水平事前监管 音效隔离

一、

问题的提出:为何反对无过错责任?

人工智能系统(AI Systems)致害应适用何种侵权责任规则,是近年来法律界议论较多的一个话题。无论是自动驾驶汽车导致发生人员伤亡的交通事故、工业用机器人在生产车间伤害共同工作的人类“同事”,还是医学诊疗系统作出贻害病患的错误诊断,这些致害场景要么已确凿出现在真实世界,要么被认为没有理由不会出现,这使得有关侵权责任规则的厘定具有十足的紧迫性。

在这一论域,截至目前研讨相对更为集中的议题是,人工智能致害的侵权责任应由何种主体承担。由于相关致害场景中出现了具有高度自主性(autonomy)或自主决策能力,甚至是“人形”(humanoid)的“机器”,这似乎意味着人工智能体独立为“致害行为”承担法律责任具备了伦理上的可行性。此类讨论自带科幻光环,引人入胜。但主张赋予人工智能主体资格的观点看似“星辰大海”,实则还是为应付眼前的“蝇营狗苟”。具体来说,人工智能致害的发生过程涉及参与人工智能系统开发、部署、产品生产、服务提供及使用等多方社会主体(为简略计,本文以下统称“人工智能致害参与方”),多方侵权的责任认定和后果分配在侵权法上本就是一个传统难题,再加之复杂人工智能技术的工作原理在认知和解释层面都有客观限度,无论是基于矫正正义的道德原则还是最小成本预防者的效率原理完成归责,都让人十足头疼。正是为了一举摆脱这种头疼,部分论者才会想出让人工智能自担其责的破局“妙招”。

但冷静想来,若赋予人工智能系统法律上的主体资格,使其“自行”承担侵权责任,就需要保证机器或智能体在获得主体资格的那一刻,不但拥有记在名下的财产,还需规模充足。没有实际赔偿能力的人工智能主体,无非其背后自然人和法人谋求“有限责任”甚至撇清、甩手的“工具人”。可人工智能主体的“第一桶金”,不是来自开发者、生产者和经营者,就是来自使用产品或服务的用户。基于价格竞争的逻辑,但凡能够成功上市、不至于贵到无人“可及”的人工智能,其“手握”的不大可能是充足覆盖预期责任的赔偿准备金,而应是一张责任险保单。而无论保险成本出自哪里,特定人工智能系统致害的责任风险若要可保,前提是法律需就责任承担者有个说法,但这就又将我们带回了原本想要通过赋予人工智能主体资格来回避的多方归责问题,堪堪“前功尽弃”。

相较而言,当下对人工智能致害归责原则——特别是过错还是无过错——的讨论热度不高。但多数论者对过错责任的坚持,恰是难于确定责任在人工智能侵权参与各方之间如何配置的重要原因:如果人工智能致害的发生机制难于解释,则应基于何种行为标准认定不同参与方各自的过错?此前,部分学者已分析指出,既有的过失责任,以及基于过错认定缺陷(defect)的产品责任,在人工智能致害语境中都很难适用。特别是,如果侵权责任规则的目标是确保对受害者的救济,那么在多方主体参与、伤害机制难以确切解释的致害场景中,往往越是有能力负担救济的主体(如大型企业),越有动力、有办法在因果链条上找出其他主体,将后者的过错用作阻断或减轻自身责任的抗辩。

结合经典且简明的法律经济分析理论,本文提出,可考虑对人工智能系统致害的侵权责任采用无过错责任规则。无过错责任之下,立法者或裁判者可基于通常或特定政策考虑,选择要求系统开发者、系统部署者、产品制造者和服务提供者等当中一方或多方承担赔偿责任,而无须考虑相关各方行为是否存在过错。过往证据揭示,无过错责任非但不必然扩大诉讼规模,且相对于过失责任而言,还可降低司法成本。在人工智能致害语境中,也可期待无过错责任在不创设人工智能独立法律人格的前提下破解多方归责难题。在立法明确单个或多个主体无过错责任的前提下,人工智能系统研发和应用链条上的各方市场主体,将可通过协议和保险等方式,围绕人工智能致害风险预防和损害负担达成进一步协议安排,并在此基础上各自选择符合技术和商业现实的合理注意水平。

过错责任是我国民事侵权责任制度通常适用的归责原则,而适用无过错责任乃至过错推定则均需有法律特别规定。近年来,国内不同研究团队发布的人工智能立法建议稿均原则上坚持了过错责任(包括过错推定),或至少尚未主张无过错责任。根据笔者理解,法学界虽重视人工智能致害风险,并强调实现救济,但也往往顾忌在国内技术创新本已面临国外“卡脖子”的情况下,立法再采用无过错责任会导致人工智能价值链上的参与者不堪重负。据称,这也是产业界已有实际表达的担忧。

这种担忧可以理解,需要回应,但未必是在人工智能致害侵权责任规则问题上坚持过错责任的充分理由。本文将基于理论分析指出,相比于过错责任,无过错责任并不意味着行为人被要求过高的注意水平(level of care)。无过错责任的激励效果主要体现为,行为人开展具有致害风险的活动时,其“行为水平”(level of activity),也即相关活动规模或“活跃度”相较于过错责任适用时会更低。从风险控制的角度来看,特别是对于存在严重致害风险的人工智能研发和运营活动而言,相对较低的行为水平本身更符合社会福利优化的要求。但即便决策者担忧“寒蝉效应”,或只是着意提高人工智能活动的行为水平,那么配合安全港规则、赔偿责任上限以及保险机制等,仍可使无过错责任在发挥其低制度成本优势的同时,避免导致过度抑制行为水平的后果。

本文达至的结论——人工智能侵权(特别是涉及高度危险使用时)应适用无过错责任——此前已有论者提出,而本文论证使用的法律经济分析理论更不新鲜。但本文以下的讨论,应有助于丰富当前学术界和实务界对无过错责任的理解。人工智能的法律治理无疑要坚持以价值生产为导向,但无过错责任并非只为追求强化安全保障时才应采用的纯粹防御性法律工具,其可能比过错责任有更高的效率。这个观点或许有悖于许多论者的直觉,因此值得在理论上展开阐释。

二、

过失责任与人工智能致害

本文有关过错责任的讨论将聚焦于过失(negligence),因为从风险预防的角度来看,追究故意行为的致害责任,同样以比较特定预防行为(例如选择放弃开展故意致害的活动)的安全收益和预防成本为基本思路。换言之,围绕过失侵权责任展开的分析可以覆盖故意侵权。而本文所提倡的无过错责任相比于过失责任的最大优势,恰是其可避免要求司法机关为事后认定过失而在个案中分析成本收益,并由此为承担无过错责任的人工智能致害参与方留出自主、动态管理致害风险的空间。
(一)矫正正义还是有效率预防

众所周知,矫正正义和有效率预防是过失侵权责任的两大规范理论基础。根据矫正正义理论,赔偿责任源于行为人在特定互动中因过错致害相对方而应承担补偿的道义义务。而根据有效率预防理论,责任规则旨在借助事后赔偿激励行为人在事前采取合理的预防措施,并在此基础上最小化预期事故成本与预防成本等(也即社会成本)的总和。

从矫正正义的角度思考、论证人工智能致害的侵权责任,尽管更符合人们的常识和道德直觉,即“犯错者才应被追责”,但显然会导致讨论从一开始就陷入在多方致害网络内分配道德和伦理责任的泥淖。在人工智能领域,除了少数相对简单的场景,我们通常很难将特定损害后果清晰地回溯到一个或数个主体各自的过错行为之上,并且也可以预见到各主体将运用各类道德说辞相互推卸责任。因此,下文暂时把矫正正义理论搁置,集中在有效率预防的框架内讨论不同责任规则的效果。但需要指出,有效率预防与矫正正义两种规范思路下的适用责任规则并不必然不同,特别是符合有效率预防的规则,大多也体现矫正正义。

(二)人工智能致害语境中的合理注意

基于有效率预防理论,过失责任归责应追求通过要求行为人履行合理注意义务而实现社会总成本最小化。换言之,过失责任做不到,也不追求做到“绝对安全”,其追求的是事故预防投入的最优性价比。

但毫无疑问,“最优”“最小化”只有在黑板经济学的演算中才有确切的意义。就司法裁判而言,厘定“合理注意”依赖大量个案判断,而法官作出这种判断时,既会借助以往类似情形中积累的经验,也会借助其在特定案件中开展的事实和“反事实”(counter-factual)分析。开展这些分析基于的主要理论框架是所谓的“汉德公式”(The Hand Formula),即行为人被控没有采取的预防措施的成本(B)是否高过事前的预期事故成本(PL)——事故的全部损失乘以事故在没有预防措施情况下的发生概率。正如格雷迪(Grady)在其经典论文中揭示的,无论从理论还是实践的角度看,对汉德公式的更适当理解和运用应是边际意义上的:如果行为人可多投入一个单位的预防,并由此额外产生超出这一个单位规模的安全收益,但其却未采取这一单位预防,则行为人就应被认定为过失。据此,原告论证被告过失的核心任务就是去识别、发现并证明存在这种有效率但被告却未采取的预防措施。

就人工智能致害而言,从有效率预防的角度出发认定合理注意义务是否被违反,存在较大困难。若运用边际意义上的汉德公式,我们会发现,由于人工智能技术进展、更新速度极快,原告借助“后见之明”(hindsight)几乎可以无穷无尽地提出各类被告“本可采取却未采取”的边际上有效率的预防措施。这意味着在人工智能致害这一新兴侵权领域,过失责任规则下很难出现较为从容的裁判经验积累过程,市场也难以借助对司法裁判的观察获得相对稳定的责任预期。反过来,这类案件中的侵权被告也一定会竭尽全力指出,包括原告在内的其他许多主体本也可采取有效率的预防措施,并会争辩其他主体采取预防措施的边际成本更低,边际安全产出更高,由此试图以与有过失(contributory negligence)或相对过失(comparative negligence)为基础提出抗辩,主张免除或至少减轻自身的责任。此时,过失责任便成为业内各方争相卸责的界权基础。这两类情形对于政策制定者和公众而言都不可欲。

如前所述,之所以可能出现如此情形,按通常理解最主要原因有二:第一,人工智能致害发生在多主体参与的侵权网络之中。人工智能的设计、研发、产品制造和服务提供,无法由单一行为人完成,而每一方参与者都可能被指认忽略了某种“边际上有效率”的预防措施。第二,人工智能致害的原理和机制透明性有其局限,在一定程度上无法被解释或理解。透明性或可理解性的缺失本身不意味着更高的风险,但其必定使事故发生后的归责难度更大。两项因素叠加在一起,使得致害网络中的多方参与主体各自行动以何种机制贡献于侵害事故的发生,在个案中难以判断。而这不仅意味着事后认定法律意义上的过失本身困难,还意味着事前各方行为主体也很难理性地分别规划;甚至,因为预见一旦发生损害、出现纠纷,行为主体与司法裁判者之间将存在严重的信息不对称,许多主体都可能有较强的动机采取机会主义行为。

由此可知,即使基于有效率预防而非矫正正义的规范框架建构过失责任,在人工智能致害语境中,确定合理注意仍非易事,在理论上很难自洽,在操作层面也会增加纠纷,带来较高制度成本。更重要的是,从激励的角度来看,过失责任提供合理注意激励的重要基础是司法裁判者对合理注意义务的把握相对可靠。如果判断合理注意义务所需要的信息能力超出司法裁判者通常掌握的程度,导致法律标准不确定性过高,那么过失责任提供的预防激励也很难是最优的。

(三)过失推定

适用过失推定归责认定人工智能侵权责任的方案考虑到了前述有关合理注意认定方面的困难。过失推定的逻辑是,尽管原告很难提出直接证据,但事故的发生大概率是行为人过失导致的,因此只要被告无法自证已尽到合理注意,就将被推定存在过失。

直观来看,过失推定似乎可缓解简单过失责任导致的争议增加、成本过高的问题。但需要注意,推定过失不等于认定过失,任何被推定为有过失的被告仍有机会提出,损害事故的发生是其自身控制之外的其他因素,特别是包括受害人在内的其他主体行为所导致的,而即使这不能使自己完全脱身,也至少可把他人“拉下水”。无论这种抗辩最终是否成功,抗辩机会的存在就意味着被告有动力投入资源,争取损失分配过程中的更有利待遇。换言之,这在性质上是一种寻租行为。而如前所述,由于人工智能致害的原理和机制较为复杂,致害人、受害人以及法院之间存在信息不对称,致害人提出反证的能力更强,因此其寻租投入规模不会很小。这样一来,推定的实际意义比预想的要更有限。无论法律是追求避免合理注意标准的厘定困难而导致过高司法成本,还是为受害人提供更多救济,采取过失推定都不如直接适用无过错责任。

(四)产品责任

产品责任是人工智能侵权相关讨论中经常被提出的一个替代过失责任的方案。具体而言,产品责任之下,造成事故伤害的人工智能产品的设计者、生产者和销售者,应对有缺陷的产品导致的伤害向受害者承担侵权赔偿责任,而受害者则需要为此证明产品存在设计或制造缺陷。

需要指出,目前形态的产品责任在人工智能致害领域的适用范围是有限的,因为人工智能致害不必然涉及“产品”:提供基于人工智能系统的服务或运用人工智能系统辅助决策导致的伤害,都无法适用产品责任。除此之外,虽然传统的侵权法论说往往将产品责任描述为无过错责任(受害人不需证明应承担产品责任的生产者或销售者有具体行为层面的过失),但产品责任认定的关键是证明“缺陷”,而缺陷概念本身已包含了与合理注意相关的分析:产品在设计和生产的意义上不够完美、无法保证绝对安全,不必然意味着有缺陷;缺陷通常意味着产品安全性没有达到消费者的合理预期,或者产品的安全风险超出了承受这一风险旨在实现的效用。换言之,缺陷的认定,仍然是与合理注意或有效率预防相关的分析过程。在这个意义上,产品责任事实上仍是一种以过失为基础的责任(de facto negligence liability)。

也正因如此,产品责任无法真正化解过失责任在人工智能侵权领域的归责难题及相应制度成本问题。产品责任相对于一般过失责任的主要优势体现为,其相对限缩了责任承担主体的范围,尤其是将人工智能产品使用者从责任承担主体的范围暂时排除出去。但即便如此,当特定的产品责任制度包含不当使用(misuse)抗辩时,有关使用者合理注意的判断仍会被带回到相应场景之中。

三、

无过错责任与过失责任:差别何在?

过失责任在人工智能侵权问题上面临的理论与实践困难,在无过错责任规则之下相对更容易解决。当然,这还不足以证成无过错责任,因为如前所述,人们总会担心“按下葫芦起了瓢”。最具有实际意义的关切是:无过错责任会不会让人工智能创新者背负过重的枷锁?相关行为主体会不会因担忧责任而过度预防?这样想不是没有道理,但其中道理恐怕与人们直觉想见的并不完全一样。下文将结合法律经济分析原理,对无过错责任如何可能产生不同于过失责任的行为激励效果作出解读。

(一)责任规则的经济分析:注意水平

责任规则的经济意义在于激励行为人采取效率最优的注意措施。根据经典模型,所谓“最优注意”,应能最小化相关活动对应的预期事故成本和预防成本之和,也即其“社会成本”。在理论上,有效率的过失责任规则所包含的“合理”注意要求,即等同于前述最优注意水平。根据过失责任规则,行为人只要采取了合理注意,便不再会被认定为“过失”,即便此时其行为并未完全无害化,仍会导致受害人损失,也不需承担侵权赔偿责任。而在有效率的过失责任之下,理性行为人有激励选择采取既不“过低”也不“过度”的最优注意水平:若注意水平低于最优,则行为人虽付出较低预防成本,但却需要承担全部事故成本,二者总和必定高于其采取最优注意水平时仅需付出的预防成本;若注意水平高于最优,此时行为人仍不需要承担事故成本,但却会导致自己负担起至少在法律上本没有义务负担的额外预防成本;只有选择最优注意水平,行为人才能最小化其作为理性行动者所关注的私人成本——而此时其选择又同时能最小化社会成本。

与过失责任相比,无过错责任如何影响行为人的注意水平?无过错责任意味着行为一旦导致伤害后果,无论行为人有无采取合理注意,都需要承担赔偿责任。鉴于无过错责任下受害人对行为人更容易发动并实现追责,行为人似乎有理由更为谨慎,选择比过失责任下水平更高的注意。但基于前述法律经济分析的思路,这个结论未必正确:如果法律上的“合理注意”要求恰好对应事故成本与预防成本之和最小时的注意水平,那么无论在过失责任还是无过错责任规则之下,理性行为人开展特定活动时会选择采取的注意水平应是一样的。这是因为,无论在过失责任还是无过错责任之下,行为人都追求最小化私人成本;即使行为人面临无过错责任,即其无论是否以及采取何种注意措施,都需要承担与事故有关的全部社会成本(剩余事故成本加预防成本),理性的行为人此时仍会选择能使其私人成本最低的注意水平,即与过失责任之下相同的、社会总成本最低的注意水平。换言之,虽然无过错责任意味着行为人没有过失也要为其行为的致害后果承担赔偿责任,但这不意味着行为人因此就会为最小化赔偿责任而过度甚至无限投入预防。

(二)责任规则的经济分析:行为水平

既然无过错责任未必对应行为人更高的注意或预防投入,那这两种责任规则的差别何在?直观的差别是,二者各自对应不同的分配后果:当合理注意已被采用、行为人不存在法律意义上的过失时,行为人的行为并不会“无害化”,对于此时仍会发生的事故伤害(可简称“剩余事故”),过失责任将其对应成本分配给受害人,而无过错责任则要求行为人为此买单。

不同的分配后果自然会生出与公平有关的讨论。但在公平之外,剩余损失的分配其实还有重要的效率意涵,而这涉及侵权法经济分析有关行为水平问题的经典讨论。根据沙维尔(Shavell)等的分析,责任规则为行为人制造的激励不仅体现在其注意水平上,也会影响其有关在何等水平或规模上开展具有致害风险行为的决策。在给定注意水平不变的情况下,行为人就行为水平所作的选择,本身就会影响行为的社会成本。例如,一位素来谨慎的司机,每周出车一天和每周出车五天,即使两种情况下注意水平一致,但因为行为水平差异,会对应不同的事故成本(如表1所示)。



然而,行为水平越高,剩余事故成本越高,显然不意味着行为水平应该越低越好。引入行为水平的意义,是向侵权法经济分析中引入更完整的成本收益分析:在通常情况下,侵权法处理的“致害行为”本身有其积极价值,而损害后果及风险则是价值生产活动的副产品。因此,行为水平的高低不仅对应着预期事故成本的高低,也对应着行为价值生产规模的高低。在给定合理注意的前提下,最优的行为水平显然不是预期事故成本最低时的水平(0),而是行为产生价值的净值最高的水平。如前所述,理想条件下,过失责任和无过错责任都能够激励行为人采取最优的注意水平。但在过失责任之下,行为人不需要负担剩余事故成本,后者由被害人承担,因此行为人会有动力将其行为水平提升至超出社会最优水平——这是没有效率的,意味着外部性未能内在化。而无过错责任之下,行为人在采取合理注意后,仍需经由赔偿责任的中介全部内在化剩余事故成本,这意味着行为人会选择减除预期事故成本后净价值产出最大的行为水平——后者与社会福利最优时的行为水平是一致的。例如,在表1示例中,如果行为人预期其将负担全部剩余事故成本,那么从私人福利最大的角度出发,他也会选择2个单位的行为水平,也即社会福利最优的行为水平。因此,正是在要求行为人对其风险行为作完整的成本收益分析,以保证行为水平最优、不过度的意义上,我们能够比较清晰地看到无过错责任相对于过失责任的效率优势。

(三)剩余事故风险与保险

除是否导致行为水平过度这一层考虑之外,过失责任和无过错责任在激励相同注意水平的前提下,对剩余事故成本作不同分配还会引起另一重与保险有关的效率考量。保险以承认风险无法全然消除这一客观事实为前提,基于大数定理和边际效用递减的规律,寻求在人群中更有效地分散配置风险,从而在总体上降低风险和伤害对应的主观效用损失。

保险当然有其成本。除市场基础设施的投入外,投保者需要为获得保险、将不确定的风险转化为确定损失付费。但在市场和社会的不同位置,保险的可及性(accessibility)通常会有较大差别,不同主体获得第一方或第三方保险的能力和成本也不相同。在过失责任下,相关行为的剩余事故成本由潜在受害人承担,因此受害人有保险需求,而行为人只需采取合理注意,就不再需要考虑为剩余事故风险投保。反过来,在无过错责任下,由于剩余事故风险仍由行为人承担,因此其通过合理注意最小化社会总成本后,仍会有动力寻求保险。鉴于此,针对特定致害行为,选择适用过失责任还是无过错责任,一个考虑因素是相应语境中哪方更能有效率地买到保险。

同时,结合前述有关行为水平的分析,由于过失责任下致害行为的行为水平较高,甚至可能超出有效率规模,因此受害人在过失责任下需要投保的预期风险规模也会更大,保险总成本会更高。而在无过错责任之下,虽然行为人直接支出保费,但若其可通过提高产品和服务价格将相关保险成本转移到作为用户的受害人一侧,基于交叉补贴原理,同样可能导致效率损失。特别是,如果用户/受害人群体内部存在较大个体风险偏好差异,相对更偏好风险的用户未必愿意支付服务提供者基于平均支付意愿定价的保费,由此可能退出市场。不过,至少在涉及消费者的人工智能致害场景,例如,在自动驾驶汽车事故中,消费者总体上的风险偏好均质性可能较高(谁坐车不是图个“安全快捷”),而设计者和制造者掌握与算法系统风险有关的优势信息,更有能力进行第一方保险,也有更强的谈判能力,因此基于无过错责任激励侵权行为人寻求保险通常更有效率。

四、

人工智能致害的无过错责任

在现代侵权法中,无过错责任始终被视为基于过失问责的例外。例如,在英美侵权法的理论讨论中,无过错责任常被比喻为一件大衣上掏出来的几个小口袋(pockets),这些小口袋装不下太多东西,也不能随便就往里装东西。最常被装在无过错责任口袋之中的是制造“危险性不同寻常”(abnormally dangerous)的行为,如炸山炸矿。人工智能系统应用是否“危险性不同寻常”,不仅不能一概而论,而且人工智能的“危险性”与“寻常性”之间也未必对应。日常生活中使用的人工智能系统,恰恰可能对人类生存构成系统性威胁;用于炸山炸矿的工业机器人的危险性反倒没那么高。因此,随着人工智能系统在各类场景中应用的日益普及,如果对涉及人工智能的侵权适用无过错责任,料想就会掏出一个非常可观的大口袋,而这甚至可能动摇过失责任在侵权责任制度中的原则地位。但为应对包含黑箱机制的人工智能侵权适用无过错责任,不仅值得,而且可能也别无选择。同时,对无过错责任可能导致的负面效果,特别是抑制创新,需要进行更确切的理解,也可通过设计配套制度应对。

(一)无过错责任下人工智能致害参与方的注意水平

如前所述,过失责任适用于人工智能侵权的主要困难在于致害机制难以解释,且潜在过失主体过多,可能导致极高的问责不确定性,也不利于受害人获得赔偿救济。在无过错责任下,司法裁判者不需要在伤害发生后反向推测各类致害参与方在事前本应采取何种合理注意措施。由于剩余风险此时配置给侵权人,后者会自行选择在风险预防方面做何种投入,而理性主体会有足够激励摸索对应最小社会成本的注意水平。这当然不意味着每个人工智能致害参与方在每个具体行为场景中,都能够精准找到并采取最优注意水平。但相比于指望裁判者事后判断,在人工智能致害语境中,由具有更强专业能力和更多及时调整应对机会的侵权人出于最小化自身成本(也即社会成本)的动机去探求接近最优注意水平,这种分散化的预防决策体制无疑具有更强的可操作性,达成的实际预防效果也会更好。

当然,即使无过错责任可免除司法厘定合理注意水平的麻烦,但由潜在参与致害的多方行为人中的何者承担无过错责任,仍是无法绕开的难题。与过失责任下的多方侵权不同,采取无过错责任时,责任承担主体的选择和范围划定可完全从一般政策角度考量,无须受事后裁量视角困扰。换言之,如果以过失责任为基础,无论是按份责任还是连带责任,多方侵权人共同承担责任的前提仍是各方侵权人各自均可被认定或推定为过失;但若适用无过错责任,立法者可在事前圈定应就人工智能致害风险做出预防投入的主体,将其纳入责任承担范围。基于政策考量圈划责任范围,在侵权法上并非新鲜操作,例如产品责任承担者的范围——销售者、生产者、分销者,但不包括使用者——实质上就是一种政策性划分。

理论上,立法者在圈划责任主体范围时仍应遵循“最小成本预防者”原则。但即使其划定范畴超出了最小成本预防者,甚至包含事实上很难采取边际上有效率的措施预防事故发生的主体(如某些终端使用者),只要责任承担主体范围足够清晰,且主体之间交易成本可控,那么相关各方也可通过协商约定的方式在相互之间重新安排责任,而交易结果预计仍将是由最小成本预防者进行最有效率的预防投入。考虑到企业组织在相关场景中的核心角色,在同一产业内的企业,通过交易重新分配责任的能力应是足够强的。甚至,即使将个体开发者、个体工程师纳入严格责任承担者的范围,理论上,在劳动力市场有竞争性的情况下,这些个体能够将此责任转移到作为其雇主的企业组织头上。当然,人工智能产业链构成较为复杂,其中头部企业与大量上下游中小企业之间存在市场地位不对等甚至权力失衡现象,这难免会令人担忧,前者会通过协议机制(如责任补偿条款)将侵权责任全部转嫁给后者。但需要注意的是,这种转嫁在过错责任下同样无法避免,且本身也未必处于均衡:头部企业如过度转嫁风险,会导致中小企业退出市场,或被头部企业整合。这类问题应直接通过改善市场结构来应对。

另一个相关问题是,在人工智能致害的无过错责任下,受害人自身过错是否可作为人工智能致害参与方减轻或免除责任的抗辩?比较明确的是,受害人故意寻求伤害应作为免责抗辩,否则碰瓷行为将会频繁发生。但受害人过失(即在使用产品或接受服务时疏于合理注意)是否应产生行为人责任减免的效果,相对更费思量。在已知人工智能系统能力有局限、使用相关产品或接受服务有伤害风险的前提下,如果不要求受害人自身也采取合理的预防投入,不符合社会成本最小化的原则。但需要注意的是,人工智能系统致害的事故场景,大多更接近“单边致害”(unilateral harm)而非“双边致害”(bilateral harm),即影响事故损害规模的主要是加害人一方而非受害人一方的预防投入。甚至,在人工智能致害场景中,关于“单边致害”应从规范性而不仅仅是描述性的角度加以理解。基于人工智能系统的产品和服务,其价值本应是解放人的“注意”,如果人工智能系统的安全性在很大程度上取决于用户或其他人类受害者是否尽到合理注意,那么这种产品本身在人机界面设计维度上就值得怀疑。

例如,在自动驾驶领域著名的有关“撒手问题”(handoff problem)的讨论中,若智能系统在出现紧急情况时允许人类驾驶员重新接管操控权限,但后者当时恰恰因为之前处于自动驾驶状态而心不在焉、昏昏欲睡,未能及时接管并做出反应,酿成事故,那么此处人类驾驶员的疏忽看上去对事故发生有重要责任。但若关照到人工智能技术开发的初衷及其动态进程,我们便会意识到,自动驾驶研发和应用的意义恰恰应是允许为通勤目的开车的人在旅途中从“驾驶员”变为“乘客”,可以打盹、走神,甚至专心从事驾驶之外的其他工作或娱乐;通过责任规则激励自动驾驶汽车的使用者保持甚至提高警惕,与这一技术愿景南辕北辙。如果人工智能侵权行为人面临的无过错责任不可能基于受害人过失而得以豁免,这也可避免侵权人抱有任何让受害人“背锅”的念想,而将主要精力用于(1)在静态意义上趋近最优预防水平,最小化由其自身承担的事故预防成本和剩余事故成本之和,并寻求以有效率的方式实施保险,以及(2)在动态意义上寻求技术改进,降低人工智能系统致害的总体社会成本。

此外,对于参与人工智能产业价值链条的企业主体来说,无过错责任对于激励其更好地监督组织内部个体行为人的行为而言,会更为有效。在过失责任下,由于过错本身很难在外部识别,因此企业主体更好的策略其实可以是避免进行过于严格的自我检视,由此不但会让外部更难发现问题,而且损害发生后也更容易辩解其原本并无可采取合理注意的空间。而在无过错责任之下,由于企业将承担预期事故损失,因此只要内部监督措施本身具有风险预防价值,其便会有动力自行选用这些措施。

(二)无过错责任下人工智能致害参与方的行为水平

反对无过错责任的一个常见理由是,其可能抑制人工智能创新活动的行为水平。除专门为制造伤害而开发人工智能技术与产品的情景之外,人工智能的技术研发、产品生产和服务提供活动,本身都旨在创造积极社会价值(包括企业利润也是积极价值),而风险是价值生产活动的副产品。如前所述,相比于过失责任,无过错责任下行为人的注意水平不必然更高甚至过度,但由于其将承担合理注意后的剩余事故成本,因此行为水平将会比过失责任时更低。换言之,创造价值的技术研发、产品生产和服务提供活动的规模,确实会由于无过错责任的适用而相较过失责任适用之时更低。

如果特定人工智能系统的潜在风险确实如社会担忧的那样严重,那么通过严格责任在一定程度上避免相关致害活动短时间内迅速扩大规模,甚至失控,应是明智之举。但需要指出,无过错责任对应的“较低”行为水平,并不只是“审慎”或“保守”,实际上也符合效率。参照前文第三部分的理论分析可知,恰恰是考虑到人工智能活动的规模不仅与其创造的价值成正比,也与其制造的风险成正比,因此最优的行为水平应是净收益最高时的行为水平,而非越高越好。在无过错责任下,侵权人完全内化外部性后的行为水平,其实恰恰是更有效率的行为水平(参见表1)。

不仅如此,无过错责任下的行为水平,本身是由行为人自主选择、调控的,因此与注意水平一样,在动态意义上,行为人可以在改进技术、降低剩余事故损失的前提下,持续提高行为水平,从而扩大自身及社会的净收益。相比之下,若适用过失责任,由于剩余事故损失不由行为人承担,因此行为人在动态意义上提升相关技术和产品安全性的动力反倒更弱。

(三)有限理性和信息问题
以上结合简单的法律经济分析理论,指出了无过错责任在人工智能侵权场景中相对于过失责任的可能效率优势。法律经济分析贵在简明,借助特定理论假设(理性人、充分信息)将讨论聚焦于核心考察因素,但其结论也难免被质疑受假设本身影响过大、缺乏现实意义。有关方法的讨论是老生常谈,此处不再赘述,仅就前述经济分析中使用的行为人理性假设再多做些说明。

无过错责任不会导致侵权人采取相比于过失责任时更高的注意水平,且会对应相对更低的行为水平这一推论,对理性假设——行为人在综合考量基础上追求总成本最小化、净收益最大化——的依赖尤为明显。现实中,人工智能产业参与者之所以担忧无过错责任,或者说法律和政策决策者之所以预期市场会反对无过错责任,恰恰是因为其认为相关社会主体没那么理性,看到“无过错责任”的说法,会出于恐慌要么投入过度的预防,要么大幅度降低行为水平,甚至干脆“躺平”。

虽然通常来看,企业或企业家的决策模式与理性人更为接近,但前者的理性在事实上确实并非必然,他(它)们完全可能也会对制度及其主旨有误判,甚至盲目应对。但相对而言,比起个体行动者,企业主体对侵权责任规则会有更多的学习、试错和重复博弈机会。尤其是,如能配合对制度设置理念和目标的有效、权威解说,企业主体应更有可能相对准确地理解,法律选择适用无过错责任并非意在要求其通过努力提高注意水平或降低行为水平追求绝对安全,而是激励其(1)通过合理注意最小化总成本,(2)通过合理行为水平最大化净收益,以及(3)对剩余事故风险进行有效保险。

但如果企业主体在决策时确会受制于无法克服的认知偏误,或者面临无法通过宣传、教育和学习弥补的信息不对称,由此不能理解“无过错责任”不等于强求“无限预防”,那么过度的行为回应确实可能出现——从业者因对责任过度恐慌而将其行为水平进一步降至有效率水平之下,即“躺平”。但这种“非理性”的行为假设同样未必“现实”。特别是,若企业主体真的都是惊弓之鸟,那我们不仅要担心其在无过错责任下会杯弓蛇影,也应预见其在过失责任下同样可能畏首畏尾。这是因为,在过失责任之下,由于人工智能侵权适用的合理注意标准在事前和事后都有很大的不确定性,因此行为人在决策预防投入规模时,其认知境遇类似赌博,是相对激进还是追求稳妥本身取决于其风险偏好或认知。若假定投身人工智能的玩家都厌恶风险,或倾向于高估风险,那么面临过失责任下的不确定性,业内行为人同样可能过度求稳、自行克制行为水平。因此,即使在人工智能致害语境中接受不同于理性选择的行为假设,过失责任也未必会比无过错责任更有利于维护人工智能创新的活跃度。此时,基于制度成本方面的优势,我们仍有理由选用无过错责任。

(四)行为水平与责任限额

但假定人工智能致害参与方确实会有基于非理性的忧惧,特别是考虑到保险未必随时可用,也往往不会全保,会将自身行为水平压得过低,那么对于有意“释放动能”“激活创新”的制度决策者而言,在适用无过错责任的前提下,其仍可通过搭配运用其他规则来提高相关主体的行为水平。

最容易想到的一类制度工具,无疑是责任限额规则(liability cap)。尽管即使在没有责任限额的情况下,侵权赔偿责任的规模也常常小于受害人的实际损害,但责任限额规则可能以将责任限定在实际损害之下为明确目标。制定责任限额的通常考虑是,在相应侵权场景中,侵害行为的实际损害大小难以清晰厘定,而限额虽可能导致受害人救济不足,但其带来的确定性有助于在信息高度匮乏的情况下避免过度消耗司法成本,也可抑制受害人过度夸大实际损害等机会主义行为。而在人工智能致害的场景中,责任限额的优势或许更加明显。人工智能致害在流行话语中之所以更引人注目,其实也常与受害人对其损害的相对夸大有关:相同程度、性质、形式的伤害,如果是人工智能而不是自然人所致,人们时常在没有足够清楚理由的情况下,就认为并宣称这种伤害是更为严重的,也即洛贝尔(Lobel)所谓的“人机双标”。

在适用无过错责任的前提下,如果人工智能致害参与方的责任规模有法定上限,只要这种法定上限低于受害人实际损失,便足以起到提高行为水平的作用。以下表2中的示例,在表1示例的基础上,增加“侵权人赔偿责任最高不超过25”这一条件。可以看到,在设定上述责任限额后,行为人选择的行为水平将从2个单位提高至3个单位。

不过,适用责任限额需要留意两点:第一,责任限额如相较于实际损害被定得过低,则其不但会导致过度行为,而且会破坏合理注意。具体而言,如果特定致害行为对行为人的边际效用不会在行为水平达到一定程度后逐渐下降,那么此时责任限额不宜适用,因为行为人有动力无限追求提高行为水平,而一旦特定行为水平对应的总预防成本超过责任限额后,行为人就会放弃有效率的预防。第二,从表2示例即可看出,责任限额固然有助于提升行为水平,但其代价是使行为导致的部分损害外化于行为人的理性决策考量,由此社会总体的福利在静态上可能并非最优。此时,若决策者和立法者仍追求提高行为水平,则其理由可能是认定相关活动可产生行为人效用之外的正外部性,只是这种正外部性在当时难以观察、把握。甚至,为追求在动态上实现效率,决策者可以选择牺牲静态效率、扶持相关行为人。在充满不确定性的人工智能领域,决策者未必能够精细计算,但需要基于自身对技术发展与社会变革大趋势的推断和把握作出决断。如果其认为支持人工智能发展有时不我待的紧迫性,每一步都不能落下,那么哪怕从特定时点上看,研发者、生产者和提供者的更高行为水平所创造的边际价值,似乎还不如责任限额导致社会负担的剩余事故损失,决策者也可以“狠下心来”,继续借助责任限额为创新活动“保驾护航”。实际上,互联网产业的早期发展,在中美两国都经历过类似过程,即法律通过压缩责任空间强制外化损害成本,推动创新活跃与产业发展。毫无疑问,如此决策有风险,未必都有好的结果,并且也不是所有决策者都接受这种优先发展而非保护或救济的价值取向。

此外,需要指出,责任限额的另一个好处是有利于责任保险市场的出现。而责任保险的成熟,不但有助于进一步提高行为水平,也可在事实上、平均意义上更好地实现受害人救济。

五、

侵权责任与风险规制

本文旨在论证人工智能致害的民事侵权责任规则更宜采用无过错责任。但一个如今已有较多讨论的前置性问题是,就应对人工智能致害及其风险而言,民事侵权责任制度是否还会扮演重要角色?或者更确切地说,在新科技风险治理明显侧重依靠行为监管的大背景下,是否已没太大必要再投入较多精力讨论民事责任规则应选用过错责任还是无过错责任?

下面将就上述问题作简要讨论。总体而言,基于行政监管的风险规制肯定是人工智能致害的主要应对进路,但基于经济和社会心理两重理由,民事责任仍有其存在的必要。适当理解民事责任的制度功能、事前行为监管与事后赔偿责任两类行为激励制度之间的关系,仍需结合法律经济分析原理。而未来建立较为复杂且更为常态的监管体制后,决策者建构和适用民事责任都应以监管体制的存在为前提,避免制度叠加导致的行为水平抑制,并有意识地寻求公私法制度工具的搭配,形成层次更为丰富的激励组合。

(一)事后责任与事前监管

为什么存在致害风险的行为,除了在损失实际发生后引发赔偿责任,还会在损失发生前就面临准入、规范操作、报备、安全审查等各类监管要求?对于不熟悉法律经济分析的读者而言,如此提问本身可能有些奇怪,甚至无从谈起:事后赔偿是为了补救具体受害人,事前监管则是为了“防患于未然”,二者当然应同时存在。但基于经济分析的视角,事后侵权赔偿责任的(即使不是唯一)制度功能,其实恰恰是为行为人创造事前采取合理注意的激励。换言之,赔偿固然是事后对具体受害人做出,但法律借助赔偿规则追求的后果,应体现在潜在致害人的事前行为之上。

根据这样的理论逻辑,如果事后责任制度运转完美,那么行为人自然会在事前有充足动力采取符合社会最优的注意或预防措施,而事前以行政监管方式设定具体风险预防要求,对于确保行为人有效投入预防而言完全是冗余的。但对上述逻辑不能作表面化理解,并由此认为其毫无现实性而弃之不理。实际上,恰恰因为“责任制度运转完美”是现实中不成立的条件,我们才能够借助思想实验的方法,更好地理解监管制度的必要性和合理设计。

从效率角度切入,事后责任难以有效应对风险,需要同时借助事前监管补足的理由主要有两点:其一,在过失责任下,行为人即使有充足激励采取最优注意水平,但因为不需要承担剩余事故成本,所以行为水平可能过度,此时监管机关可以在事前直接干预、控制行为水平,例如限制人们每周开车的天数。其二,无论在过失责任还是无过错责任下,由于行为人的预防水平是否符合最优需由司法机关事后判断,而鉴于司法机关面临信息局限,私人诉讼因成本等因素难以充分发起,行为人的赔偿责任预期很可能打折扣,从而不足以激励其在事前采取充分的预防措施。此时,更为专业、信息更充分的监管机构在事前提出有关预防措施投入的监管要求,对于补充事后责任激励的不足而言,就具有明显的必要性。在人工智能致害场景中,即使如本文建议的那样采无过错责任,受害人若要追诉求偿,仍面临证明损害和因果关系以及与程序事项相关的各类成本,而司法机关就相关问题作出正确裁判也非理所当然。因此,对于有效应对人工智能致害风险而言,仅有民事责任肯定是不够的。

而今,几乎没人否认规制和监管在应对风险方面的必要性,这对于新科技风险治理而言尤其如此。在个人信息保护、数据安全等论域内,时常要讨论的问题反而是,在建构了系统性的行政规制之后,缓慢、拖沓、个别、充满不确定性的民事责任,是否还有存在的必要?在数据保护和数据安全论域中,论证民事责任必要性的主要理由通常是,受害人获得救济的制度价值无法靠行政规制实现。但救济之外,基于与前述相同的逻辑,只要监管者同样面临信息成本,其在事前提出的风险预防要求并非完美对应最优的注意水平,那么保留事后赔偿责任就是一种有益的针对行为人的预防激励补充。在人工智能致害的场景中,我们可以断定,虽然监管者在认知相关风险方面具有专业性和信息充分性,在一般意义上要超过司法机关,但这并不意味着在任何一个特定场景中,其都拥有完美信息,都能够在客观意义上给出最优的行为要求。特别是,出于鼓励、扶持人工智能发展的政策取向,如果监管机关在事前有意借助降低行为要求或减弱执法力度的方式,为产业中的行动者“松绑”,那么此时维持事后责任对于保持充分预防激励而言就可能更加必要。

(二)叠加效应与安全港规则

上文解说了事后赔偿责任与事前安全监管两类制度之间的关系,尽管二者在完美条件下可以相互替代,不必同时采用,但由于没有任何制度行动者掌握充足信息、没有任何制度运转成本为零,因此同时建立、运转监管和赔偿责任两套制度,对于人工智能致害场景中的风险预防是必要且明智的。

然而,虽然事前规制与事后责任可形成有益互补,但两种制度的同时运行却不必然意味着搭配适当。一种可能是事前的烦琐监管要求与事后的责任——特别是无过错责任——会产生叠加效应,即两种制度各自为行为人提出的预防要求加在一起将超出社会最优的合理注意水平,从而导致行为人面临过重的注意负担,抑制其投入价值生产的动力。

根据前文讨论,上述负担中过度的部分,预计通常不会来自无过错责任,而更可能是由于事前监管要求超出了补充事后责任激励不足所需的程度。在事后就人工智能致害适用无过错责任的情况下,行为人本已会采取最优合理预防,但如果责任适用达不到百分之百,监管者即有理由基于其对相关议题上合理注意水平的认知提出行为监管要求。然而,监管者对于最优注意水平何在,以及事后责任产生的激励在多大程度上不充分,都不可能有完美的认知。此时,监管者提出的要求通常要么过高,要么不足,而导致威慑过度的叠加效应会出现在前一种情形之中。可以预见,在人工智能风险规制领域,基于目前国内外总体相对保守的规制倾向,导致总体规制负担过重的叠加效应是更可能出现的。

应如何看待及应对这种叠加效应?虽然笔者认为“过犹不及”,但由于人工智能现有技术和未来发展可能产生的风险规模与性质都有极大的不确定性,因此政策制定者倾向于采取更为保守、遵循“预防原则”(precautionary principle)的进路是可以理解和接受的。本文仅试图提示,决策者乃至论者应当意识到,同时施加严格的事前监管和事后民事责任,极有可能导致叠加效应,造成过度威慑,抑制行为水平,而这样的制度效果最好是有意追求而非无心之失。如此,则决策者更可能会主动或被动要求向社会及其他利益相关人解释乃至证成自身决策背后的价值考量。

但假如决策者的价值导向是更为开放、进取、偏好风险的,那么叠加效应就应当尽力避免。为此,可能的选项或许至少有三种:(1)在采取无过错责任之后,基本取消或大幅放松事前监管;(2)在建立事前监管体制之后,取消事后责任;(3)在同时建立事前监管体制和事后赔偿责任的情况下,通过安全港规则等制度技术,事实上限制事后责任的适用。

第一种是去规制(deregulation)的范式,其在现实中恐怕很难被采用,因其不符合公共选择逻辑下监管机关的行事逻辑。更重要的是,对于人工智能而言,鉴于司法的被动、缓慢和信息局限,这几乎一定会导致风险过度——不仅超出社会最优,而且会超出社会及政府哪怕在偏好风险的前提下能够承受的限度。第二种是更具有现实可行性的,特别是在风险预防的意义上,虽然将相关决策完全交给监管机关有其弊病和限度,但监管机关的专业性和敏捷性无论如何都强于司法;而事后责任的免除,对于给行业相关主体松绑而言肯定有直观益处。不过,本文倾向于不对事后责任作一概免除。除受害人救济的考量之外,更重要的其实是照顾社会心理。

在笔者看来,第三种或许是更为合理的制度搭配。所谓“安全港规则”,是指监管机关在强制适用的监管要求基础上,事前再为行为人指明一系列更为具体的合规要求,行为人不必照此行事,但若选择照此合规,即可免于事后赔偿责任。笔者在其他文章中较为详细地论说过安全港规则应用于新技术规制领域的优势和思路。总体而言,运用安全港规则,为相关主体提供可选择的合规路径,既可以降低市场主体的合规成本,避免叠加效应,也能保留市场主体选择风险预防策略的空间和监管者改进规制策略的灵活性。对于那些偏好创新胜过安全的决策者,这或许是值得考虑的更为周全的“松绑”式风险规制方案。

(三)社会心理与音效隔离

最后,需要再简要解释一下,为什么即使担心叠加效应导致威慑过度,且即使在行政监管注定成为人工智能风险治理主要机制的前提下,笔者仍认为民事侵权责任规则应当被明确设立、保留。

实际上,如能建立有效的保险制度,救济的目标可以在侵权责任之外实现,长期来看尤其如此。尽管短期而言,人工智能伤害保险本身的出现和发展,或许至少在初期需要借助有关侵权责任的司法裁判活动提供信息和经验,但在笔者看来,侵权赔偿责任,特别是无过错责任,其更重要的价值是,有助于支持人工智能开发、应用和其他相关活动在具有充分社会信任的环境中开展。在当下及可预见的未来,无论在国内还是国外语境中,社会公众对人工智能的担忧和恐慌预计将保持在足以让业界行动者有所感知的水平。甚至,只要留意到有关人工智能风险和威胁的法律与政策精英话语,就不难想见,随着人工智能技术的发展和更广泛应用的铺开,社会及政策领域或许只会更多地受到负面情绪甚至卢德主义(Ludditism)心态的影响。这种情况下,无论在严格监管的基础上免除事后民事责任的制度设计是否合理、效果是否可欲,一旦法律规则基于其外部呈现被公众解读为“人工智能致害一概免除赔偿责任”,将严重削弱公众对法律和政策能够合理平衡人工智能发展与安全需求的信心,并加剧社会公众对整个人工智能甚至新科技产业的不信任。

事实上,同样基于这种安抚社会心理的考虑,本文有关人工智能致害侵权适用无过错责任的主张,可以获得经济分析之外的另一重支持:虽然无过错责任规则实际上并不“严格”(即并不要求行为人采取超过合理水平的预防),但其给社会公众的观感却相当“严肃”。换言之,由于无过错责任很可能被赋予“法律高度重视人工智能风险”“绝不姑息致害”的社会含义,适用无过错责任的效果,很可能是在不实质增加产业承受的制度成本的前提下,营造出包含更高社会信任、相对更有利于人工智能产业发展的社会认知环境。

甚至,即使考虑到产业内的行动者也可能出现过度的风险厌恶,或对责任、规制反应过度,而决策者为保护行为水平选择采取责任限额或安全港规则等配套制度,以求事实上减少侵权责任的适用,此时无过错责任的前述“表达功能”(expressive functions)仍然未必就会丧失,但前提是能实现足够程度的“音效隔离”(acoustic separation)。作为一个法律理论概念,“音效隔离”在经典意义上主要用于解释行为规则和裁判规则之间的分殊。根据这一理论,理想状态下,行为人和裁判者可以从规制行为的法律规则中获得不同的信息,前者往往根据法律的字面意思,认为法律的禁令十分严格甚至苛刻,而后者则基于字面背后的法律精神灵活裁量,掌握更宽松的尺度。这二者组合之后的效果,则是较为强有力的事前威慑与较为宽和的事后处置,所谓“惩前毖后、治病救人”。

不难看出,“音效隔离”实现的前提是,相同法律规范在不同类别的受众之间被差异化理解,而这些不同受众之间无法通过沟通和交流有效地弥合相互间在法律信息和理解上的差距。换言之,用市场类比,不同受众群体之间不存在套利(arbitrage)空间。就人工智能致害的侵权责任而言,如果法律采取“无过错责任+责任限额/安全港规则”的模式,某种更宽泛意义上的“音效隔离”——老百姓认为责任严格、普遍,而司法裁判者实际要求产业界承担的责任较轻、范围较为有限——是否可能?

对于这个经验问题,笔者没有足够依据给出确凿答案。但一些初步分析让人有理由认为,这并非天方夜谭:在人工智能立法中,有关侵权责任(无过错责任)的规范会作为基础性规范出现在法律主干条文中,而安全港规则(具体合规要求)或责任限额至多在主干条文中会被抽象提及,其具体内容可能会被放到主体立法之外的其他具体实施条例、司法解释等规范当中。换言之,责任条文与责任限制条文在认知显著性、理解容易程度、搜寻成本高低等方面的差异,意味着在人工智能侵权责任议题上谋求“音效隔离”具有可行性。诚然,对法律有更为细致认知和理解的律师、法律学者,可通过普法宣传、维权代理等活动削弱“音效隔离”。但截至目前,许多法律场域中都仍存在“音效隔离”,这意味着仅凭专业人士的“套利”活动,通常不足以弥合其与社会公众之间的认知差距。鉴于人工智能法律法规体系要比一般民刑事法律更不容易为普通人所认知和理解,因此似乎没有太多理由认为,经过安全港规则调整的人工智能侵权责任规则,其制造的“音效隔离”效果会弱于传统法律部门中可以达到的程度。

六、

结语

自工业革命以来,人类社会以制度形式关注、应对的风险种类不断增加。这看似意味着我们的生存处境越来越危险,但或许其实是因为如今社会掌握的可用于运转法律制度的资源较以往“极大丰富”了。换言之,能管的更多,才会管得更多。但即便如此,就其适用所需调动的制度成本而言,不同规则仍有高低之别。不仅如此,更应当看到,新型风险在现当代不断涌现,主要还是因为人类社会在持续不断地找到新的创造价值、改善个体和共同生存境遇的生产方式。因此,有关风险应对和价值生产的两侧考量,应尽可能被纳入相关法律规则制定的同一个思辨过程之中。

有关侵权责任的法律经济分析理论,为有效开展包含上述各类制度考量的规范分析提供了相当简明的框架。人工智能致害的技术原理固然时常复杂、难解,但人工智能致害侵权责任的设计原理,至少就其结构性考量而言,却未必需要特别高精尖的新理论。并非所有的“经典”理论都有助于启发思路、解决问题,如强调责任必须与“自主”道德主体绑定的教条理论,在人工智能致害议题上谈不上有特别积极的贡献。但截至目前,许多现成可用的法律经济分析原理,在与人工智能立法相关的研究和讨论中,尚未得到充分运用,尽管效率因素一直被明确承认为该论域中重要的考量目标之一。

本文主张人工智能系统侵权应适用无过错责任而非过错责任,理由主要基于效率。若非借助法律经济分析,支持无过错责任的论者通常只会看到“安全”,而反对无过错责任的论者则只会想到“负担”。两种思路都很重要,但各有其片面之处。本文的分析及结论不一定正确,但应可贡献值得参考的理论逻辑,即人工智能致害适用无过错责任不必然抑制,甚至可能有助于维护创新活跃度。在笔者看来,就人工智能立法其他议题的讨论而言,类似的法律经济分析或有助于论者“打开格局”。

推荐阅读 

1.王利明:生成式人工智能侵权的法律应对丨前沿

2.北京互联网法院:滥用具备可识别性的人工智能合成声音可以构成侵权 | 资讯

3.王天凡:人工智能监管的路径选择——欧盟《人工智能法》的范式、争议及影响|前沿

中国民商法律网


本文转载自微信公众号“华东政法大学学报”,点击文末“阅读原文”可跳转至原文。

【温馨提示】由于微信公众号推送规则的改变,未对本公众号设置星标关注的读者,将难以第一时间接收到本公众号每日发布的前沿讯息!星标关注操作指南如下: