生成式人工智能的广泛应用在带来深刻社会变革的同时,也引发了新的侵权现象及相关诉讼。如何认定生成式人工智能服务提供者的侵权责任已成为当前亟待回答的难题。有学者认为,生成式人工智能为法律带来的最大挑战是潜在的侵权风险,基于对人工智能产业发展的考虑,生成式人工智能侵权仍应采过错责任原则,仅在涉及侵害个人信息权时采过错推定责任原则。如何认定服务提供者的“过错”便成为生成式人工智能侵权中的关键问题之一。本文尝试对生成式人工智能服务提供者过错认定中面临的难题及其解决途径加以探讨,以便为相关纠纷的解决提供理论支撑。
一、生成式人工智能服务提供者
侵权过错的认定路径
生成式人工智能服务提供者侵权情形多种多样,不同情形中的侵权认定规则有所不同,故有必要区分各情形分别展开探讨。
(一)生成式人工智能服务提供者侵权的各种情形
第一,根据侵权发生的阶段,可分为训练阶段、生成阶段和移除阶段。训练阶段涉及生成式人工智能服务提供者将受著作权、个人信息权等保护的内容用于训练人工智能而潜在地侵害著作权、个人信息权等纠纷。因训练人工智能的内容是由服务提供者自行人为决定,故此类侵权与传统的著作权、个人信息权侵权无异,对服务提供者过错的认定并不会因人工智能因素的加入而受影响。生成阶段是指服务提供者在回复生成式人工智能使用者(以下简称“使用者”)时,给出了对他人利益造成损害的内容,例如虚假、侮辱性内容等(以下统称为“致害内容”)。生成式人工智能的技术特征之一是生成何种内容的难以预见性,生成的内容因人而异、因时而异、因问而异,这为生成阶段服务提供者的过错认定带来了挑战。对“难以预见”的生成式人工智能服务提供者如何认定过错有待学理阐释。移除阶段是指服务提供者在知道或者应当知道致害内容生成后,应采取避免致害内容再次生成等必要措施。这是传统网络侵权中的通知移除规则在生成式人工智能场景中的适用。若服务提供者已经知道致害内容生成(多发生于受害人通知服务提供者的场合),且在技术层面有能力采取避免致害内容再次生成等措施却未采取相应的措施,则服务提供者存在过错。本文对服务提供者过错认定的分析以生成阶段为主,兼及移除阶段。
第二,生成阶段可进一步细分为使用者合法行为促发致害内容的生成和使用者(含第三人)诱导行为促发致害内容的生成。前者例如使用者要求 ChatGPT 提供法学院教授性骚扰的例子及相关报道来源。ChatGPT 回复称特利曾在一次去阿拉斯加的班级旅行中发表了性暗示言论,并试图触摸一名学生,且援引了《华盛顿邮报》的一篇文章作为信息来源。但这篇文章并不存在,特利也从未被指控性骚扰。后者例如一种“越狱”技巧允许使用者通过创建一个名为 DAN 的 ChatGPT 的另一个自我(Alter Ego)规避算法规则,该自我可以回答一些原来不被算法允许的问题,例如支持暴力和歧视的内容。前者是最纯粹、最典型的生成式人工智能服务提供者侵权情形。在后者,服务提供者是否构成过错取决于其是否履行了避免被使用者诱导生成致害内容的义务。本文以前者为典型纠纷情形展开讨论。
第三,以受侵害的权利类型为标准,生成式人工智能侵权还可分为对著作权等知识产权、名誉权等传统人格权的侵权,以及对个人信息权的侵权等。侵害知识产权和传统人格权适用过错责任原则,侵害个人信息权适用过错推定责任原则。虽然过错责任和过错推定责任采相同的过错认定理论,但鉴于我国在个人信息保护领域对信息处理者规定了一系列专门的义务,且过错推定纠纷的争议焦点和理论重点在于厘清行为人的减责和免责事由,而非过错认定,故本文对过错认定的分析以侵害知识产权和名誉权等传统人格权为主,相关结论对侵害个人信息权亦有参考价值。
(二)注意义务作为生成式人工智能服务提供者侵权过错认定的方式
对生成式人工智能服务提供者侵权过错的认定,首先需明确过错认定的方式。侵权责任构成中的过错要件包含故意和过失两类。在生成阶段,服务提供者一般不会主动追求致害内容的生成,且受害人举证证明服务提供者故意往往非常困难,故对服务提供者过错的认定主要通过“过失”。在移除阶段,若服务提供者在知道致害内容生成后未采取必要措施,则构成“故意”。其中,故意的判断并无理论障碍(尽管有实践举证难题),主要的难题在于过失的判断。关于过失的判断主要有三种方式。其一,过失是对注意义务的违反,故判断过失的关键是厘清行为人的注意义务。其二,过失是未尽 “理性人”的注意义务,故关键是厘清何为理性之人。其三,过失是能够预见自己行为可能造成损害却未加以避免,故过失判断的关键是行为人能否预见。总体而言,我国相关理论和实践多采注意义务说。故本文以注意义务为认定过错的核心概念。
我国网络侵权中另一种常见的判断网络服务提供者存在过错的标准是“知道”和“应当知道”(为简化表述,以下统称为“知道”)。这主要是基于《民法典》第 1195 条和第 1197 条(原《侵权责任法》第 36 条),并在理论和司法裁判中被普遍采纳。尽管在网络侵权案件中常以“知道”认定过错,但在生成式人工智能服务提供者过错的认定中不宜采“知道”标准,理由如下。首先,“知道”与生成式人工智能的技术特征不符。生成式人工智能与传统网络服务的重要差别是前者具有一定程度的“自主性”,服务提供者往往难以预见致害内容的生成,甚至难以解释为何该内容会生成。因此,在传统网络侵权中,因网络服务提供者客观上有机会且有能力知道侵权内容,故通过网络服务提供者是否“知道”侵权内容判断是否存在过错有其合理性。但在生成式人工智能侵权中,要求服务提供者“知道”侵权内容与客观事实相悖。其次,以“知道”认定过错,考量因素过于单一,无法满足生成式人工智能侵权过错认定的复杂需求。虽然在判断“知道”与否时,会将服务性质、方式、管理信息的能力等因素纳入考量,但这些因素都仅聚焦于服务提供者能否“知道”侵权内容。而在生成式人工智能场景中,服务提供者“知道”不再是认定过错的标准,如何通过义务的设置尽可能降低致害内容的生成概率才是关键所在。最后,相较于历史悠久、理论积淀丰富的注意义务理论,网络侵权“知道”规则的理论积累有限。注意义务的理论张力有助于更好地应对生成式人工智能侵权这一有别于传统网络侵权的新社会现象。
从注意义务角度认定过错,有两种思考进路。一是区分注意义务的存在和注意义务的违反,前者探讨行为人是否负有注意义务问题;后者探讨行为人是否履行了注意义务问题。而注意义务的存在又可细分为注意义务的来源和注意义务的内容。前者旨在正当化行为人的注意义务;后者旨在给出注意义务的具体要求。二是将行为人负有不得侵害他人权益作为默认的一般性义务,故不再关注注意义务的存在,仅探讨注意义务的违反。鉴于对传统侵权中行为人是否负有注意义务常已形成稳定认识,故略过注意义务的存在往往无妨。但在生成式人工智能侵权中,服务提供者是否负有注意义务本身便有待探讨。区分注意义务的存在和违反有利于对此作出更细致的分析。
二、生成式人工智能服务
提供者注意义务的来源
侵权法中注意义务的来源主要包括从事一定营业者的义务、专门职业人员的义务、契约上义务、危险之先行行为引发的义务、法令上义务、一般防范损害发生之义务(主要适用于陌生人之间)等。其中,“从事一定营业者的义务”适用于使用该营业设施或服务的大众;“专门职业人员的义务”适用于与专门职业人员有合同关系的相对人或与相对人关联的第三人“;契约上义务”适用于存在合同关系的主体间,此三者在生成式人工智能侵权场景中并不适用,因为服务提供者是对不特定的第三人(尽管也包括其服务使用者)造成损害。故可能的义务来源是危险之先行行为引发的义务、法令上义务和一般防范损害发生之义务。
第一,“危险之先行行为引发的义务”在移除阶段可作为义务来源,但在生成阶段无法作为义务来源。危险之先行行为主要适用于不作为侵权,故能否适用取决于生成式人工智能侵权是作为侵权抑或不作为侵权。在移除阶段,服务提供者知道侵权后有义务采取必要措施却未采取,导致损害扩大,系典型的不作为侵权,故危险之先行行为引发的义务可作为注意义务的来源。在生成阶段,一方面,生成的内容是服务提供者主动提供(尽管是基于算法等自动生成),这类似于传统的网络内容提供者主动将自行创作的内容上传,故其应定性为“作为”行为。另一方面,服务提供者在生成内容方面负有诸多义务,例如确保数据来源和基础模型的合法性等义务,若服务提供者未能履行这些义务导致致害内容的生成,则其似应定性为未履行相关义务的“不作为”侵权。基于侵权法原理,作为与不作为的区分,应以被告行为是否已经对原告的利益发生不利影响作为判断标准。生成式人工智能服务提供者未履行数据来源合法性等义务并不会直接导致致害内容的生成,只有“生成”内容的行为才会导致损害的发生。故生成式人工智能致害中的加害行为是生成内容行为这一“作为”行为。至于未履行数据来源合法性等义务,应作为生成行为过错与否的考量因素。因此,“危险之先行行为引发的义务”无法作为生成阶段服务提供者注意义务的来源。
第二,“法令上义务”可作为义务来源。法令上义务是指“立法者基于特定情事,就当事人间之特定关系考查,认为有课予行为人作为或不作为义务之必要,以避免特定危险发生,因而形成行为人对于特定人之注意义务”。首先,就法令范围而言,此处的法律不仅包括专门针对生成式人工智能的规范,例如《生成式人工智能服务管理暂行办法》(以下简称《生成式人工智能办法》),也包括可能适用于生成式人工智能的一般性规范,例如《民法典》《个人信息保护法》《互联网信息服务算法推荐管理规定》等。因生成式人工智能服务是新出现的服务类型,传统一般性规范对其应否适用需逐一加以检视。其次,并非所有法律、法规中的义务性规范都能成为引发侵权责任的来源。对《生成式人工智能办法》等公法上规范的违反如欲发生私法上侵权责任的法律后果,该公法义务须同时具有保护私主体权益的规范目的。据此,法令上义务可作为生成式人工智能服务提供者注意义务的来源,但以该义务具有保护私主体权益的规范目的为限。
第三,“一般防范损害发生之义务”可作为义务来源。法令上义务虽可在一定条件下成为服务提供者注意义务的来源,但法令规定的义务毕竟有限,且技术和商业实践发展迅速导致法令规定的义务常常出现滞后性而不敷使用。同时,“保护性规范的要求在很多时候只是对行为人的注意义务和注意程度的最基本要求,这种规范注重的是要求的客观性、统一性和易实施性。因此,只要行为人违反了保护性规范,当然就可以认定其存在过失。反过来,即便行为人遵守了保护性规范,这也不能证明其完全没有过失,行为人还必须证明自己已经尽到了合理谨慎的人在特定情形下所应尽到的注意义务”。故课以服务提供者“一般防范损害发生之义务”仍有必要。一般认为,对于消极不作为侵权,行为人原则上不负有积极作为的义务;对于积极作为侵权,行为人原则上有避免损害发生的义务。在生成式人工智能致害中,移除阶段服务提供者的加害行为是“不作为”,故除了现行法明确规定的义务外,服务提供者一般不负有作为义务。在生成阶段,服务提供者的加害行为是“作为”,故服务提供者应负有一定的防范损害发生的义务。
在生成阶段服务提供者难以预见具体致害内容的情况下,服务提供者防范损害发生的义务何以可能?对此,唯有将概括预见能力作为判断服务提供者注意义务的标准,方能实现理论上的解释。详言之,注意义务包括行为上的注意义务和结果上的注意义务,前者评价的是(违法)行为,后者评价的是行为导致的损害结果。行为人是否尽到了结果上的注意义务,以可预见的明确程度为准,可分为具体预见能力和概括预见能力。前者是指行为人在行为时能够明确预见行为的损害对象、损害类型和损害程度,后者是指行为时无法明确预见损害对象等,只能预见行为具有不特定之危险性。为了避免对行为自由造成过度的限制,侵权法原则上不以概括预见能力为由对行为人课以注意义务。在生成式人工智能侵权中,服务提供者不具有具体预见能力,仅具有概括预见能力,因为就技术原理而言,人工智能“犯错”而生成致害内容是必然现象。因此,对服务提供者课以注意义务须证成以概括预见能力判断注意义务的合理性。
以概括预见能力判断注意义务在侵权法上虽属例外,但在生成式人工智能场景中有其合理性。这也是生成式人工智能侵权与传统网络侵权的重要差别。在传统网络侵权中,法院大多仅在网络服务提供者具有具体预见能力时才课以侵权责任,服务提供者仅具有概括预见能力则无须承担责任。这主要通过对“知道”的解释来实现,即“知道”不包括“概括知道”。例如,法院在“三角牌电器案”中指出,被告平台“即便概括知道平台可能存在大量侵权信息,也不能苛责平台甄别每一件商品并下架侵权产品”。类似地,在“Tiffany 案”中,美国法院认为:“概括知道不足以构成 eBay 对任何或所有侵权行为知道要件的满足。权利人 Tiffany 的要求函、测试性购买以及侵权通知书仅导致 eBay 对侵权产生了概括知道,这并不足以导致 eBay 产生采取措施的义务。”之所以否定概括知道,是为了促进互联网产业的发展,避免其对平台内容承担过重的审查负担。但在生成式人工智能侵权中,这一选择应予改变,理由在于以下两个方面。一方面,在传统网络侵权中,除了服务提供者外,受害人还可以向直接上传侵权内容的网络用户主张权利。而在生成式人工智能侵权中,若受害人无法从服务提供者处获得救济,将无从获得救济,故在生成式人工智能场景中须给予受害人更多的倾斜性保护。另一方面,以概括预见能力为由课以注意义务,在传统网络侵权中往往会大大增加网络服务提供者的成本负担,因为网络服务提供者加强审查的主要方式是人工审查。而在生成式人工智能场景中,其“天然”采取的是没有人工参与的“自动”生成方式,概括预见能力的纳入并不会对服务提供者带来更大的经营负担(虽然会增加责任负担)。因此,概括预见能力在生成式人工智能场景中对服务提供者影响有限,同时强化了对受害人的救济,具有合理性。
三、生成式人工智能服务
提供者注意义务的内容
生成式人工智能服务提供者负有哪些具体的注意义务?鉴于现行民事立法尚未对生成式人工智能的义务作出专门规定,服务提供者注意义务的内容可从三方面考虑:一是传统网络侵权中的审查义务,包括一般审查义务和特殊审查义务,该义务主要存在于生成阶段;二是对侵权过错认定有影响的公法上的义务,即“保护性规范”;三是采取必要措施义务,包括可以直接避免损害扩大的措施和转通知等其他措施,该义务存在于移除阶段。
(一)生成式人工智能服务提供者的审查义务
在传统网络侵权中,网络服务提供者的注意义务主要涉及一般审查义务、特殊审查义务和采取必要措施义务。一般审查义务要求网络服务提供者普遍审查其网站上的内容。特殊审查义务是指网络服务提供者在特定情形中应承担的审查义务。
1.生成式人工智能服务提供者不负有一般审查义务
网络服务提供者是否负有一般审查义务,与网络服务提供者类型相关。我国法上的网络服务提供者类型包括网络内容服务提供者、自动接入传输服务提供者、自动存储服务提供者、搜索链接服务提供者、存储空间服务提供者等。其中,网络内容服务提供者自行提供内容,故其对内容负有一般审查义务。自动接入传输服务提供者、自动存储服务提供者、搜索链接服务提供者和存储空间服务提供者不负有一般审查义务,理由在于网络中用户上传的内容海量,服务提供者的审查成本高昂。生成式人工智能服务提供者虽在形式上与网络内容服务提供者相似(自行向使用者提供内容),但实质上并不相同,因为其对生成何种内容的控制力不足,而控制力正是决定侵权规则的关键因素,故其不宜被定性为网络内容服务提供者。生成式人工智能服务提供者无法被归入搜索链接服务提供者或存储空间服务提供者,因为其提供的服务内容显然并非搜索链接服务或存储空间服务。因此,生成式人工智能服务提供者应作为一类新型、独立的网络服务提供者。是否负有一般审查义务,需结合其自动生成内容的技术特征展开分析。对此,可资借鉴的经验主要是搜索引擎在自动生成内容时的审查义务。
关于搜索引擎对自动生成内容是否负有审查义务,比较法上存在分歧。在意大利“谷歌案”中,原告通过谷歌平台检索其名字时,自动补足的内容是“欺诈”和“骗子”。谷歌主张其应受到避风港规则的保护,但法院并未支持该主张,而是要求其移除该内容。与此类似,在我国香港特别行政区“谷歌案”中,法院认为,谷歌在诽谤检索词出现的过程中存在“积极促进或有意帮助”。但在美国,似并无法院判决谷歌应就搜索引擎自动生成内容承担侵权责任的案例,尽管也有学者主张应基于“责归于上”的理念要求服务提供者对其自动生成的内容承担责任。我国既有判决大多认为搜索引擎服务提供者对自动生成的内容不负有审查义务。例如在“任甲玉案”中,在百度搜索引擎中输入“任甲玉”,在页面“相关搜索”处显示有“陶氏教育任甲玉”等。法院认为,任甲玉与陶氏教育机构同时出现是对特定时间内网络用户所使用检索词客观情况的反映,故百度公司对“陶氏教育任甲玉”等词的出现并不存在主观过错。否定网络服务提供者的一般审查义务是我国法长期以来的选择,例如,《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》(法释〔2012〕20号,2020 年修正,以下简称《信息网络传播权规定》)第 8 条第 2 款规定,“网络服务提供者未对网络用户侵害信息网络传播权的行为主动进行审查的,人民法院不应据此认定其具有过错”。因此,在生成式人工智能场景中可采与搜索引擎自动生成内容类似的规则,即服务提供者不负一般审查义务。
2.特殊审查义务宜纳入注意义务
特殊审查义务意味着网络服务提供者在特定情况下须承担更高的注意义务,这大多发生于网络服务提供者“应当知道”的情形。从我国现行法和司法裁判来看,引发特殊审查义务(应当知道)的因素主要包括内容类型(例如作品类型)、社会影响程度(例如知名度、一定时间内的浏览量)、侵权信息的明显程度(例如置于首页等能够被明显感知的位置)、主动进行了编辑、从内容中直接获得经济利益、同一用户存在重复侵权行为。可见,既有的这些特殊审查义务情形多数是以“人工审查”为预设事实。无论是社会影响程度,还是内容被置于首页等能够被明显感知的位置,抑或是主动进行了编辑等,之所以会引发特殊审查义务,背后的逻辑都是这些特殊因素会导致网络服务提供者更容易注意相关内容。而生成式人工智能在技术上采自动生成,不存在人工审查这一事实。详言之,在生成内容之前,并不存在人工审查阶段;在生成内容之后,因内容是提供给提问的特定使用者,而非提供给不特定使用者,故也不存在社会影响程度、能被明显感知位置或人为主动编辑等情形。关于“内容类型”,单纯的该因素并不会直接导致网络服务提供者被认定为应当知道,而是须结合其他因素共同作为认定应当知道的因素。所谓“同一用户重复侵权”在生成式人工智能场景中并不存在,因为内容是由服务提供者自行提供。而“直接获得经济利益”以内容与经济利益之间存在“特定联系”为限(例如针对特定内容投放广告获取收益),网络服务提供者因提供网络服务而收取一般性广告费、服务费等不属于直接获得经济利益(《信息网络传播权规定》第 12 条)。据此,若生成式人工智能服务提供者只是一般性收取会员费等服务费,不会因此承担更高的注意义务。综上,现行法上引发特殊审查义务的因素大多在生成式人工智能场景中难以适用。
我国现行法列举的特殊审查义务引发因素为不完全列举,随着商业实践的发展和司法经验的积累,能引发特殊审查义务的因素会日益增加。目前逐渐出现的一种特殊审查义务是要求网络服务提供者采取技术措施对某些内容普遍进行审查,典型例证是版权过滤技术。因视频指纹识别技术、关键帧识别、图像内容分析等版权过滤技术的成熟和普及,产业界已能够在技术层面普遍采用版权过滤技术。有学者据此主张网络服务提供者应当负有采取版权过滤技术的义务。生成式人工智能服务提供者是否应负有类似的采取某种技术避免生成致害内容的义务,取决于在生成式人工智能领域是否存在相应的技术。在技术层面,生成式人工智能生成何种内容取决于算法、算力、数据集(算法所使用的数据)和使用者(人机交互),这意味着所谓“审查”系内嵌于算法中,没有必要将生成技术和审查技术人为区分开来,这与传统网络服务之外存在一个独立的审查技术并不相同。换言之,在生成式人工智能场合,所谓“审查技术”其实已经是算法的内在组成部分之一,故没有必要在法律上对两者分别作出要求和评价,即没有必要强调“特殊审查义务”。
综上,鉴于生成式人工智能技术与传统网络服务技术的差异,在生成式人工智能场景中没有必要强调审查义务,更可取的思路是直接从生成式人工智能的算法技术角度考虑注意义务。换言之,生成式人工智能服务提供者是否因算法的使用而负有较之传统网络服务提供者更高的注意义务。对此,我国学界多持肯定意见。例如有学者主张,算法推荐服务提供者在特定条件下应负有超过“通知删除”规则的更高的注意义务。因此,问题的关键是,在生成式人工智能侵权中该如何判断服务提供者所应承担的“更高”注意义务。对此,除了基于注意义务的一般原理给出判断注意义务的影响因素外,既有保护性规范中对生成式人工智能的义务性要求是判断服务提供者注意义务的另一重要途径。