专栏名称: 知识产权家
每日分享全球知识产权热点资讯与案例,助力国家知识产权战略实施,与中国知识产权人相伴成长。
目录
相关文章推荐
51好读  ›  专栏  ›  知识产权家

江波 | 生成式人工智能生成物的可版权性及侵权责任研究

知识产权家  · 公众号  ·  · 2024-05-17 11:22

正文

请到「今天看啥」查看全文


江波

腾讯集团法务副总裁、副总法律顾问


全球人工智能技术产业正式迈入生成式人工智能的新时期。生成式人工智能在大规模商业化应用的过程中面临着生成物的生成路径不确定,生成过程处于“黑箱”状态,生成物的可版权性存在争议,生成物涉及侵权时的著作权侵权认定及侵权责任分配困难等理论难题和实践困境。本文拟在充分说明生成物的类型及生成机制的基础上,总结和分析国内外相关监管和司法现状,对生成物的可版权性及涉及侵权时的侵权责任问题进行探讨,并提出解决建议。


自2022年11月以来,伴随以国外的“Chat GPT”及国内的“文心一言”“通义千问”“腾讯混元”等大语言模型为代表的生成式人工智能(Generative AI)产品的不断涌现,全球人工智能技术产业正式迈入生成式人工智能的新时期。同时,互联网内容生产方式加速由传统的平台生成内容(Platform Generated Content,简称PGC)和用户生成内容(User-Generated Content,简称UGC)向生成式人工智能生成内容(AI-Generated Content,简称AIGC,下文也称为“生成式人工智能生成物”或“生成物”)的新业态转型。生成式人工智能生成物相较传统人类生成物而言,具有即时响应、自动生成的特点,这些特点也使得生成式人工智能在大规模商业化应用的过程中面临着生成物的生成路径不确定,生成过程处于“黑箱”状态,生成物的可版权[1]性存在争议,生成物涉及侵权时的著作权侵权认定及侵权责任分配困难等理论难题和实践困境。


本文拟在充分说明生成物的类型及生成机制的基础上,总结和分析国内外相关监管和司法现状,对生成物的可版权性及涉及侵权时的侵权责任问题进行探讨,并提出解决建议。


生成物的类型及生成机制


区分不同类型的生成物及与之对应的生成原理和生成路径,有助于我们理解生成物与传统著作权法意义上的作品之间的差异,并识别各类生成物在生成过程中涉及的生成机制及其蕴含的著作权侵权风险,从而对生成物可版权性问题和侵权责任问题进行精细化、类型化的研究。


生成物的类型


从当下主流的生成物类型来看,以ChatGPT、文心一言、腾讯混元等为代表的AI文字生成器,主要以“文生文”的方式向用户提供文字生成物 [2] ;以Stability Difussion、Midjourney等为代表的AI图像生成器,主要以“文生图”的方式向用户提供图片生成物 [3] ;以Synthesys、Pictory、Deepbrain AI等为代表的AI视频生成器,主要以“文生视频”或“图生视频”的方式向用户提供视频生成物 [4] ;以AIVA、Soundful等为代表的AI音乐生成器,主要以“文生音乐”或“音乐生音乐”的方式向用户提供音乐生成物 [5] ;GitHub Copilot、Ask Codi等为代表的AI代码生成器,主要以“文生代码”或“代码生代码”的方式向用户提供代码或算法编程生成物 [6] ,等等。可见,根据其内容形式的不同,生成物可分为文字生成物、图像生成物、视频生成物、音乐生成物、代码生成物五种常见类型。


根据我国《著作权法》第三条对于作品类型的封闭式列举,文本、图片、视频、音乐、代码五种类型的生成物,可归属于文字作品、音乐作品、美术作品、视听作品、计算机软件作品等法定类型的作品。


可以预见的是,随着生成式AI技术及各类信息技术的发展,若未来AI和3D打印、脑机接口、生物仿真等软硬件技术形成融合应用,以至于载有生成式AI系统的仿真机器人可以模仿人类实现外部化、形象化、立体化的生成活动,生成物的类型外延将有可能拓展至戏剧、曲艺、舞蹈、杂技艺术、建筑、摄影等需要借助人类肢体动作进行表演和创作的传统作品类型。因此,生成物的类型不是一成不变的,而是随着技术的发展而不断变化,甚至可能衍生出超越人类创作范围的生成物。


生成物的生成原理


生成物的生成原理与传统人类作品的创作逻辑截然不同。著作权法意义上的作品主要通过人类大脑的理性逻辑或感性思维对特定思想进行独创性表达以创作而成,其实质是人类发挥自身主观能动性的自主创作行为。生成物则系AI在算法模型和算力设备的支持下对海量数据集进行吸收、训练、决策及输出而成,其实质是计算机系统在“算力+数据+算法”的外部技术的共同作用下模拟人类的某些思想过程和智能行为。 [7] 简言之,传统作品的创作主体是人类,生成物的创作主体是计算机系统,主要依赖于外部数据和算法技术的自动生成。二者在创作原理上的差异,决定了生成物的生成路径与传统作品也泾渭分明。这种差异对于生成物的可版权性及相应侵权责任的分析有着重要影响。


生成物的生成过程


生成物的生成过程离不开自然语言处理(NLP)、图像文字识别(ORC)、语音识别技术(ASR)等数据处理技术,以及循环神经网络(RNN)、卷积神经网络(CNN)、生成对抗网络(GAN)等深度学习算法模型的技术支撑。一方面,在NLP、ORC、ASR等数据处理和转化技术的驱动下,AI能够将人的语言、文字、图像等转化为计算机可处理的信息,实现人类语言的代码化。具体而言,NLP技术可以实现对人类语言的理解和生成,并将计算机处理的信息转化为人类可读的文本信息;ORC可以读取和识别图像中的文字信息;ASR技术可以将人类的声音语言转化为计算机可处理的文本信息 [8] 。另一方面,在RNN、CNN、GAN等深度学习算法的训练下,AI模型能够在前者的基础上,将不同类型文本信息按照特定的规则进行排列组合筛选以及回归计算分析,以实现“文生文”“文生图”“文生视频”“文生代码”等不同类型的AI生成活动。其中,CNN技术主要用于图像处理,并通过卷积层来提取图像特征;RNN技术主要用于序列数据,如自然语言文本或时间序列数据,并能够处理序列中的依赖关系;GAN技术由生成器和判别器组成,用于生成与真实数据相似的新数据,通常用于图像生成、音频合成等任务。 [9]


无论是何种生成物,基于算法模型和决策机制的运行原理,其生成机制既有共同之处,又有不同之处。共同点表现为,生成式AI的决策机制主要分为两个阶段:训练(输入)和生成(输出)。在训练阶段,算法模型会充分运用上述NLP、OCR、ASR等数据分析技术,依次通过自监督学习、监督学习、人类反馈强化学习等算法训练阶段,以对海量数据的特征和规律进行训练。这些数据可以是文本、图像、音频等多种形式。通过对数据的训练,模型会逐渐掌握其中的特征和规律,并形成自己的压缩数据库。在生成阶段,大语言模型则会根据用户输入的指令(Query),对用户的提示词(Promt)蕴含的规律和特征进行解析,并与压缩数据库中的相似样本进行匹配,最后运用工具集消除文本之间的语法歧义并进行价值对齐,以生成满足用户需求的生成物。 [10]


不同点在于,不同类型的生成物具有以下个性化的生成路径:


文字生成物主要遵循“文生文”的生成逻辑。以ChatGPT的文字生成器为例,其内置的大语言模型和转化器能够从海量训练数据中学习上下文的联系,但需要首先通过NLP技术将文本数据转换为可被算法模型理解的AI语言(数字表示或嵌入)的过程来理解文本提示,通过对词语序列的概率相关性进行建模,并围绕用户提示输入(prompt)的语句预测接下来不同语句出现的概率分布,通过模型预测用户输入内容的潜在答案,再将答案输入模型中以预测下一个答案,循环往复地迭代出最终答案。 [11]


图片生成物主要遵循“文生图”的生成逻辑。随着Stability Diffusion和Midjourney等生成式AI图片生成器的出现,图片生成AI开始采用全新的算法模型来生成图像,该模型被称为“扩散模型”。扩散模型需要在接受用户的提示(prompt)生成新颖的图像前,对存储有数亿张不同图像数据库进行训练,以使得每幅图像都配有类似文字描述的标题。生成式AI对图像的处理,需要首先借助NLP技术,通过其扩散模型的正向扩散(加噪)和反向扩散(去噪),使图像的生成呈现出循序渐进、由模糊到精确的动态过程。随着扩散模型逐渐对原数据进行加噪和去噪,扩散器逐渐细化图像并使其与用户的文本描述保持一致,以达到“文生图”的目的。 [12]


视频生成物主要遵循“文生视频”的生成逻辑。当前,文生视频技术还不够成熟和稳定,尚未迎来大规模的商业应用浪潮,全球AI企业正在加快研发自身的AI视频软件,行业中呈现出竞相角逐、百花齐放的产品业态。在生成式AI领域,文生视频的生成机制与扩散模型的文生图模式相似,是扩散模型在视频领域的延伸,迄今已发展出包括Video LDM、Text2Video-Zero、Runway Gen1、Runway Gen2、NUWA-XL等在内的文生视频扩散模型。从生成机制来看,文生视频扩散模型通常在大型文本和视频数据集上进行训练,参照上述文生图的扩散模型运作原理对不同类型的视频数据集重复进行加噪和去噪,以使得训练数据集最终与用户的文字描述的标签内容相近似。 [13]


音频生成物主要遵循“文生音频”的生成逻辑。音频生成物的类型多元,涵盖了音乐、硬件机器人、自动客服、数字人、有声书的内容创作,以及视频、游戏、影视等领域的配音生成物等。文生音频的生成机制与文生文、文生视频相类似,均需要依赖经过高质量标注的语音数据集,在此基础上通过深度合成算法及语音生成模型对不同类型的音频数据转化后进行训练,并根据用户对于不同声色类型的需求合成对应的音频片段,然后输入由用户自主创作或由ChatGPT生成的文字内容,经过语音合成系统的训练后输出用户需要的音频生成物。根据Meta官网的介绍,目前其新研发的语音大模型已能够实现由文本到语音合成、噪音消除、内容编辑、风格转换和多样本生成等功能。 [14]


代码生成物主要遵循“文生代码”的生成逻辑。文生代码的关键在于通过神经网络模型和转换器架构将自然语言文本转换为可执行代码。具体而言,AI首先要对输入的自然语言文本进行预处理,创建能够为AI所理解的结构化数据;其次,需要通过“Transformer”架构和“编码器-解码器”架构对自然语言文本中的上下文和依赖关系进行分析,并对文本到代码的转换过程进行算法建模;再次,需对包含自然语言描述对和相应代码片段的数据集进行训练,包括预训练和微调;最后,需通过注意力机制、代码表示、解码策略等方式,帮助AI生成连贯且匹配预期功能的代码序列,确保生成的代码在语法和语义方面的正确率,从而达到“文生代码”的结果。 [15]


综上可见,基于生成物的多样性,不同种类的生成物以及其生成过程可能存在很大的差异。这些内容和生成过程的不同,最终可能都会对生成物之独创性以及生成物创作主体的判断产生影响。因此,要解决“生成物是否构成著作权法意义上的作品”以及“生成物著作权侵权责任如何认定”两大问题,首先需要根据上述生成原理进行分析。


生成物的著作权作品属性


自人类进入AI时代以来,生成物是否构成著作权意义上的“作品”,一直是学界和实务界关注的重点问题。迄今学界主要支持的理论观点和各国的立法态度仍倾向于“否定说”,即生成物原则上不构成著作权法意义上的作品。


在当前著作权领域的主流理论中,有关生成物的著作权作品属性的观点,主要可分为“否定说”(否定生成物是作品,否定其应受到著作权法保护)、“肯定说”(肯定生成物是作品,肯定其应受到著作权法保护)和“折中说”(生成物中的独创性内容应受到保护)三种学说 [16] ;其中,又以坚持人类创作为中心的“否定说”为较为主流理论,而“肯定说”和“折中说”在近年来也逐渐受到重视,开始从仅关注生成物是否受到著作权法保护,转向生成物是否具有独创性以及如何对生成物的独创性内容进行保护。需要说明的是,为避免理论混淆,本文所讨论的“否定说”仅指向由AI自主生成的生成物,而排除了人类在生成过程中的独创性贡献。


在以人类创作为中心的影响下,“否定说”受到普遍支持的原因在于,著作权法以鼓励创作为目的,只有人类才能理解和利用著作权法的激励机制,也只有人的创作成果才能受到著作权法的保护。生成物并非人的创造成果,不可能属于受著作权法保护的作品。基于相同的逻辑,世界各主要国家和地区(包括中国、美国、欧盟等)的立法均以保护人类作者为中心,基本否定了生成物的可版权性。只有少数国家(如英国和爱尔兰等)通过单独立法,为包括AI在内的所有计算机生成作品生成者提供除人身权以外的著作权保护。 [17]


各国目前的司法实践大体上也对生成物的可版权性采取否定说,例如我国的“腾讯诉盈讯案”“菲林诉百度案”,美国的“泰勒诉美国版权局AI绘画版权登记案”“《黎明的扎利亚》版权注册案”等。当然,也出现了例如“李某某诉刘某某图片生成物著作权侵权纠纷案”这样的承认生成式AI的生成物具有可版权性的司法实践案例,引起了一定范围内的讨论。


总体来看,随着AI技术的迭代升级,各国关于生成物著作权保护的司法实践,正在经历由传统AI生成物到大语言模型生成物的发展阶段,使得法院在审理关于上述两种类型生成物的案件时,展现出既相似又不同的裁判逻辑;其中,前者包括我国的“腾讯诉盈讯案”(Dream writer)、“菲林诉百度案”等,后者包括我国的“Stability Diffusion生成物著作权侵权案”等。上述案件的共通点在于涉案生成物均是通过AI与人类共同创作完成,法官在认定相关生成物的作品属性时均坚持了否定说的裁判原则;不同点在于传统AI与AI大模型的生成路径存在差异。传统AI是以执行特定计算机程序的专家系统为代表的AI系统,此类AI系统通常需要人类开发者在算法决策中发挥主导作用,包括但不限于对算法模型进行开发和设计,对训练数据集进行收集、整理和训练,对AI输出内容及其表达形式进行把关、编排、修改等。也正因如此,传统AI生成物很大程度上包含了人类作者的独创性贡献,其创作过程也更容易被识别和判定为“由人类进行主导创作,AI作为辅助创作”的情形,从而更倾向于被认定为属于著作权法意义上的作品。


与之相比,在生成式AI时代,得益于大语言模型、Transformer神经网络模型以及扩散模型等深度学习算法的应用,生成物的生成模式已由过去的人类主导或人机协同模式,逐步进化到如今的AI完全自主创作阶段。对于由生成式AI自主生成的生成物,其与传统生成物最大的区别在于独创性表达贡献的主体难以确定,以及不同主体在创作过程中的独创性贡献比例难以识别。因此,生成物的著作权保护在司法及执法实践中将面临以下两种情形。


其一,如果认为生成物的独创性贡献内容完全系由AI系统提供,则AI系统虽然是物理意义上的“创作者”,但其仍无法成为以人为中心的法律意义上的作者,该生成物也毫无疑问地无法成为著作权法意义上的作品,美国版权局在“《黎明的扎利亚》版权注册案”中拒绝对申请人利用AI绘图工具Midjourney生成的漫画内容进行版权登记,就是该情形的一个最好例证。


其二,如果认为生成物包含了人类的独创性贡献,则需要识别具体涉及哪类独创性贡献主体,以及各主体之间的独创性贡献配比。根据美国版权局的现有实践,主张生成物具有人类贡献的版权申请人,有义务向美国版权局披露提交注册的作品中包含AI生成的内容,并就人类作者对作品的贡献提供简要解释,并有义务检查其提供给美国版权局的资料是否充分披露了上述信息;如果没有,应该采取措施纠正信息,否则可能导致注册无效。可见,美国版权局直接回避了第二种情形下的人类主体独创性证明难题,而是将该独创性的证明和解释义务留给了版权申请人。


回归我国首例图片生成物著作权侵权诉讼案件,如前所述,本案中值得关注的问题除了涉案图片是否属于著作权法意义上的作品外,还包括涉案作品的独创性贡献如何产生及由何者产生的问题。从本案一审判决的说理内容来看,法官认定涉案图片的独创性来源于原告(即用户),主要基于以下两点理由:一是原告对生成物的训练过程付出了显著的智力劳动;二是涉案图片系基于原告的个性化表达而生成的差异化结果,而差异化结果是判断生成物是否具有独创性的客观标准。


然而,如果认为出现差异化结果是判断生成物具有独创性的客观标准,那么,差异化结果究竟是来自用户的贡献,抑或是来自生成式AI的算法决策?这一问题在当下理论界还未有定论。主流观点认为,生成物的差异化结果来自AI模型和用户行为的共同作用。 [18] 究其原因,用户的提示词内容有限,而生成式AI的算法模型却十分复杂。即使是向生成式AI输入同一提示词,如果该提示词是由不同用户在不同时间输入,或者是由不同用户在同一时间输入,或是由同一用户在不同时间输入,生成式AI最终输出的结果均可能存在差异,用户的提示词实际上已转化为生成式AI的“思想”并由AI代为创作。与用户的提示词相比,生成式AI对最终输出的结果更具控制力。 [19] 可见,将差异化结果归因于生成式AI和用户,进而将作品的独创性贡献分配给生成式AI研发者和使用者共有更为合适。就本案而言,法官将涉案图片的差异化结果直接归因于原告的个性化表达,而忽略了生成式AI对涉案图片输出结果的影响,也否认了生成式AI及其研发者对涉案图片具有的独创性贡献。 [20] 尽管如此,法官最终还是认定本案的AI研发者不是涉案作品的作者。之所以结果殊途同归,盖因涉案生成式AI研发者已在用户使用协议中主动放弃了对生成物的权利主张,也由此排除了司法裁判者对AI研发者独创性贡献进行认定的必要性。


另外,本案的一审判决观点并不能适用于所有类型的生成物著作权诉讼。对于由生成式AI引发的生成物著作权诉讼案件,司法实践仍应当结合具体场景下的生成物类型、独创性来源、涉及主体身份进行个案讨论。


生成物侵权的侵权责任问题


从传统著作权侵权理论来看,生成式AI根据用户提示词和算法自动输出的生成物,存在着侵犯他人著作权的法律风险。生成物的著作权侵权问题需要重点围绕以下三个方面展开讨论:一是生成物的著作权侵权类型;二是生成物的著作权侵权归责原则;三是使用者、提供者和研发者的法定注意义务。


生成物侵权的主要类型


生成式AI在输出生成物的过程中,涉及的著作权侵权行为主要分为直接侵权和间接侵权两种类型。直接侵权是指侵权人未经相关著作权人的许可或授权,擅自通过生成式AI生成从事直接侵犯他人著作权的行为。间接侵权是指侵权人在明知或者应当知道生成物侵犯他人著作权的情况下,仍为其侵权行为提供帮助。基于生成物的生成路径以及侵权主体的多元性特征,对于生成物的讨论仍需要结合当前主要的人机协同模式进行探讨,包括人机合作模式、人类创作为主导模式,以及机器创作为主导模式。在不同模式下,生成物的侵权责任行为及其对应的责任承担机制可能各不相同,故需要结合具体的人机协同场景进行分析。


表1 人机协调的三种模式 [21]


首先,关于AI主要或辅助创作场景的判定


关于AI在生成物生成过程中究竟是起到辅助作用还是主要作用,该问题隐含地“排除了由AI完全自主生成的生成物”,本质属于人类与AI协同创作的独创性贡献配比的界定问题。对于该问题,应当通过定性和定量的方式,结合具体的创作场景进行分析。现有的人类与AI协同方式可分为三种模式(见表1):一是由人类自主完成工作的模式;二是由人类和AI共同完成工作的模式;三是由AI自主完成工作的模式。从定性角度而言,在三种模式中,第一种模式毫无疑问属于AI辅助创作(如Dreamwriter),其生成物也应当受到著作权法保护;第三种则属于由AI进行主要创作;而在第二种情况下,无法判断究竟是属于何种情形,还应从定量角度进一步界定人类与AI的独创性贡献比例。


以美国版权局的诗歌创作案为例,该案中,使用者向生成式AI发出提示词(Promt),实际上更像是指示受委托人进行创作的行为,并不能据此认定该使用者对生成结果存在独创性贡献。以具体场景为例,如果使用者向生成式AI输出提示,指示其根据版权法的要求创作仿效“莎士比亚风格”的诗歌,最终使用者可以获取该诗歌内容,而诗歌的韵脚、每行的词语和文本的结构等表达形式则是由AI技术创作完成,故根据美国版权法的规定,该作品不应被认为是由人类创作完成。该情形更类似于上述人机协调的第三种模式,即使用者通过发送提示(prompt)设立目标,AI根据使用者的指示全权代理并自主完成工作。可以认为,这种情形属于典型的AI主要创作模式。按照美国版权局的理解,该模式下创作的生成物难以被认定为版权作品。


然而,如果人类基于自身的独创性表达对生成物的生成材料进行选择和安排,或者对生成物的材料进行独创性修改,以使得生成物能够达到版权法的作品标准,这种情况下的生成式AI使用者就符合“以人类为作者”的版权作者身份要求,但版权法也仅保护生成物中由人类完成的部分。以具体场景为例,如果使用者向生成式AI输出提示,首先要求其创作一首普通的诗歌,并在AI创作完成后向其继续提出修改意见,指示其按照使用者输入的文字、韵脚、每行的词语和文本的结构对诗歌进行修改,最终获得了一首独具特色的诗歌。该情形更类似于上述人机协调的第二种模式,即使用者向AI设立任务目标,AI仅完成工作的部分流程、起草初稿,而生成内容的修改和润色材料的选择都由使用者决定,并由使用者对最终的文稿进行确认。按照上述美国版权局的观点,使用者对生成物中的修改部分具有独创性贡献,该部分内容可受版权保护。


在上述具体场景中,尽管AI在第二种模式下究竟是起到辅助作用抑或是主要作用仍难以界定,但我们应理解“主要”或“辅助”是一个相对的概念。譬如,AI对于最初起草的诗歌起到主要的创作功能,但对于使用者修改部分内容则只起到辅助的创作功能,故重点不在于是否AI起主要还是辅助作用,而是判断该作品是否具有人类的独创性贡献以及是否能受到版权保护。“相对论”的视角也能避免陷入独创性贡献配比的判断困境。


其次,关于AI辅助创作的情况下的侵权责任


在AI辅助创作的情况下,生成物的独创性来自其使用者,使用者是作者(生成物满足独创性要求而构成作品的情形)。当生成物侵权时,作者是直接侵权人。


AI提供者和研发者在知道或者应该知道使用者侵权而不制止的情况下,可能构成间接侵权。但是,AI提供者可以援引源自美国“SONY”案中的技术中立原则进行抗辩。 [22 ]如果AI存在“实质性非侵权用途”,即AI有实质上或商业上重要的、合法的、无争议的用途,则AI提供者和研发者不会仅由于某些用户利用该AI实施侵权,或者AI的提供者知道该AI可能被用于侵权,而被推定构成共同侵权。要主张“技术中立”免责,AI提供者和研发者至少应当满足四个条件,即:(1)该项技术既存在合法用途,也可以被用于违法行为,但并不是被设计用于违法用途;(2)提供者仅提供了该项技术,并未参与技术的使用过程;(3)提供者没有引诱用户从事侵权行为;(4)提供者对具体的侵权行为并不明知或者应知。


AI提供者通过合同的方式,约定使用者必须遵守法律和用户协议的约定,不得侵犯他人著作权;因为使用者侵犯他人著作权,给提供者带来的损失(包括提供者承担间接侵权责任),由使用者承担。这样的约定会在使用者和提供者之间产生内部的责任分配影响,但并不影响权利人向提供者的侵权追索。权利人仍然能够起诉提供者侵权,提供者不能以用户协议的约定来有效抗辩权利人的维权请求。当然,如果提供者因为使用者的侵权而承担了侵权责任,其可以按照用户协议的约定,向使用者进行追偿。上述情况,实际上与平台经营者和用户之间的用户协议对平台经营者的侵权责任承担的影响是一致的。


生成物的著作权侵权归责原则


本文主要从侵权责任类型和侵权损害赔偿两个领域,对生成物的著作权侵权归责原则进行分析。


在侵权责任类型方面,主张无过错责任主要适用于针对排除妨碍、消除危险、停止侵权等具有绝对权性质的责任类型而言。侵犯他人著作权不以过错为成立要件,而是以无过错责任为原则,只要行为人的行为符合法定侵权情形,权利人即可请求其承担如排除妨碍、消除危险、停止侵权等侵权责任。 [23] 侵权损害赔偿则以行为人具有过错为前提。从著作权侵权的共性层面而言,生成式AI所输出的生成物在侵犯他人著作权时,也应该参照适用上述归责原则。需要注意的是,由于生成式AI在算法技术和生成机制方面存在独特性,生成物也具有与传统著作权侵权理论的不同之处,因此在归责原则上也会存在一些差异。


首先需要承认的是,在以无过错责任为主的侵权认定原则下,基于生成式AI算法的黑箱性以及AI生成物在输入和输出过程中存在的不确定性,包括用户、研发者、提供者在内的利益相关者实际上很难实现对生成物输出结果的精准预测和完全控制,在著作权侵权认定阶段不加区分地适用严格责任,将导致上述主体不得不为非本人自由意志或主观状态之外的AI生成结果承担责任,也会显著增加生成物的侵权风险,甚至导致生成物著作权侵权诉讼的滥诉。王利明认为,对于生成式AI引发的侵权,理应适用过错责任。 [24] 当然,这里的过错责任是针对赔偿损失的归责而言,正如上文所言,停止侵权等民事责任承担不以过错为要件。 [25]


必须指出的是,在以过错责任为原则的侵权损害赔偿认定中,如何认定AI提供者、研发者、使用者是否对损害结果具有过错,是当前生成式AI侵权责任领域应予解决的难题。该难题产生的原因在于,AI创造对于外界而言是一个“黑箱”,具有不透明性、自主性和复杂性 [26] ,这使得版权所有人在证明AI提供者、研发者、使用者具有过错时会面临巨大的困难。对此,应采取一定的方法降低权利人的举证难度。针对欧盟《人工智能法案》所确定的“高风险人工智能系统”,欧盟《人工智能责任指令》(提案)就设计了两项减轻权利人举证责任的机制:一是证据披露制度;二是过错的推定。 [27] 证据披露制度是指由法院命令AI提供者、使用者、承担提供者义务者 [28] 披露证据,这些证据是指上述主体掌握的涉嫌造成损害的人工智能系统的相关证据。 [29]


过错的推定是指在两种情况下,推定上述主体具有过错:一是上述主体没有遵守法院的命令进行证据披露,则推定其没有尽到旨在防止损害的注意义务,具有过错;二是提供者、承担提供者义务的主体和使用者没有遵守《人工智能法案》规定的旨在防止损害发生的相关义务,例如AI的开发没有遵守透明度要求,AI使用者未按照系统随附的使用说明履行其使用或监控人工智能系统的义务。 [30] 当然,过错推定允许被反驳。


《人工智能责任指令》(提案)的上述规定除了对于减轻版权所有人的证明责任有可借鉴之处,还为AI提供者、研发者和使用者设立了一系列义务,通过考察相关主体是否履行了这些义务来判定其是否具有过错。这实际上是对相关主体的过错(过失)认定标准的客观化。应用这种客观化的标准,在认定相关主体是否具有过错时,不再需要去探究其主观心理状态,而是采纳基于社会生活共同需要而提出的客观标准。这种客观标准往往被称为“理性人”标准或者“善良管理人”标准。 [31] 相比主观标准,客观标准判断的确定性更强,更有利于给各方主体以稳定的预期。《人工智能责任指令》(提案)主要从对法定注意义务的遵守来判定相关主体的过错,即若相关主体违反法定注意义务,则推定具有过错。这种将履行法定注意义务与过错判定联系起来的进路,使得AI提供者、研发者和用户适用法定义务不仅可能承担行政责任,还可能承担民事责任,从而进一步增加相关主体履行法律义务的激励,减少相关违法行为,达到立法者的立法目标。我国在设计人工智能侵权责任制度时,可以参考这种设计思路,将AI提供者、研发者和用户的法定义务与其侵权过错进行“挂钩”,以增加法律的确定性,为各方提供稳定的预期,增加相关主体守法的激励

AI使用者、提供者和研发者的法定注意义务

首先,关于AI使用者的法定注意义务


使用者在生成物的生成过程中侵犯他人著作权的主要情形可分为违法行为和合法行为。前者包括用户通过提示词的方式,故意诱导生成式AI输出侵犯他人作品(如增加某一词语出现的频率、调整该词在句子中的位置或给出与该单词具有关联性的单词) [32] ,或向AI提供本就侵犯版权的训练数据材料。后者包括用户通过合法行为输入提示词后生成侵犯他人作品的行为。当AI使用者通过违法行为生成生成物而侵犯他人版权时,其应承担直接侵权责任。


综合欧盟《人工智能责任指令》(提案)和中国现行法,可考虑为AI使用者设立以下用于判定其著作权侵权过错的法定注意义务:一是遵守AI系统附带的使用说明, [33] 合理地防止使用者利用AI生成侵犯他人著作权的生成物;二是禁止上传侵犯他人著作权的数据进入系统,以生成生成物;三是使用者应主动对AI生成信息内容进行标识,同时禁止删除、篡改、隐匿AI生成信息内容上的标识。


其次,关于AI提供者和研发者的法定注意义务


正如上文所言,AI提供者和研发者承担赔偿损失的归责原则是过错责任原则,判定AI提供者和研发者有无过错的客观标准是其是否尽到相应的法定注意义务。


综合欧盟的《人工智能责任指令》(提案)、中国现行法及《生成式人工智能服务安全基本要求》(征求意见稿),可以考虑为AI提供者和研发者设立以下旨在防止著作权侵权的法定注意义务:一是在训练数据方面采取相关措施防止侵权,包括设立知识产权负责人、建立知识产权管理策略、对训练数据中的著作权侵权问题进行合理识别等;二是建立知识产权投诉处理机制;三是在主动发现著作权侵权或者收到有效的著作权侵权投诉时,采取包括停止生成、停止传输、消除、模型优化训练等合理的必要措施制止侵权 [34] ;四是使用者应建立对使用者的管理制度,通过用户协议、使用说明等途径告知使用者不能侵犯他人著作权,以及如何防范生成侵权的生成物,在发现使用者利用生成式人工智能服务侵犯他人著作权时,应当依法依约采取警示、限制功能、暂停或者终止向其提供服务等处置措施;五是履行标识义务,包括主动为生成的信息内容添加隐性标识及提供显性标识,让使用者进行标识。


[1] 本文语境下,版权与著作权同义。

[2] See Alex York, 10 Best AI Text & Content Generator Tools in 2023, https://clickup.com/blog/ai-text-generator/, last visited: 2023-11-30.

[3] See Harry Guinness, The best AI image generators in 2024, https://zapier.com/blog/best-ai-image-generator/, last visited: 2023-11-30.

[4] See Alex McFarland, 10 "Best" AI Video Generators, https://www.unite.ai/best-ai-video-generators/, last visited: 2023-11-30.

[5] See Christopher Morris, 5 Best AI Music Generators in 2023, https://www.elegantthemes.com/blog/business/best-ai-music-generators#5-beatoven, last visited: 2023-11-30.

[6] See Alex McFarland, 10 Best AI Code Generators, https://www.unite.ai/best-ai-code-generators/, last visited: 2023-11-30.

[7] 参见吴汉东: 《人工智能生成作品的著作权法之问》,载《中外法学》,2020年第3期,第654页.

[8] See J.L. Bernard, Text-to-Speech and Natural Language Processing, https://typecast.ai/learn/natural-language-processing-tts/, last visited: 2023-11-30.

[9] See Shiri F M, Perumal T, Mustapha N, et al. A Comprehensive Overview and Comparative Analysis on Deep Learning Models: CNN, RNN, LSTM, GRU, https://arxiv.org/pdf/2305.17473.pdf, last visited: 2023-11-30.

[10] 在输出阶段,生成物的侵权风险可能来源于用户的违法提示、训练数据集含有违法内容以及工具集使用不当。参见AAIG:《第三章: 生成式人工智能风险产生原因的分析》,载微信公众号“阿里巴巴人工智能治理研究中心”,https://mp.weixin.qq.com/s/9gynegKqJ9I7igGSkftLKQ,最后访问日期:2023年11月30日。

[11] See Alex York, 10 Best AI Text & Content Generator Tools in 2023, https://clickup.com/blog/ai-text-generator/, last visited: 2023-11-30.

[12] 参见朱开鑫、张艺群:《“你的AI侵犯了我的权”:浅谈AIGC背后的版权保护问题》,载微信公众号“腾讯研究院”https://mp.weixin.qq.com/s/FFVlVmltIdiagM35yzCWIw,最后访问日期:2023年12月1日。

[13] 倪可:《从文字到3D再到视频:AIGC应用的多模态新突破》,载微信公众号“新媒体观察”,https://mp.weixin.qq.com/s/oNvIo3Y8kojmToFT2rZzQ,最后访问日期:2023年12月1日。

[14] See Le M, Vyas A, Shi B, et al. Voicebox: Text-guided multilingual universal speech generation at scale, https://arxiv.org/abs/2306.15687, last visited: 2023-12-1.

[15] See Vaswani A, Shazeer N, Parmar N, et al. Attention is all you need, https://proceedings.neurips.cc/paper_files/paper/2017/file/3f5ee243547dee91fbd053c1c4a845aa-Paper.pdf, p.3, last visited: 2023-12-1. .

[16] 参见薛铁成:《综述与评鉴:人工智能创作作品的现状及法律保护路径初探》,载《中国海洋大学学报(社会科学版)》2019年第5期,第125页。

[17] 参见丁晓东:《著作权的解构与重构:人工智能作品法律保护的法理反思》,载《法制与社会发展》2023年第5期,第113页。

[18] 如北京知识产权法院审判监督庭庭长冯刚认为,人工智能生成内容的主权归属的规则没有改变,依然是谁产生独创性谁就是著作权人。现实情况是,大多数使用者使用几十上百个参数或约束条件做出一个内容,但这些参数和条件不一定生成唯一的成果,可能在不同的软件中根据相同的约束条件能够获得截然不同的成果,人工智能对最终形成的成果独创性是有贡献的。参见孟伟:《“著作权法体系是保护人工智能生成内容的最好归宿》,载微信公众号“法治周末报”,https://mp.weixin.qq.com/s/r-ujVxTLNwbOaMgeoV_Rxw,最后访问日期:2023年12月3日。

[19] 参见张金平:《论人工智能生成物可版权性及侵权责任承担》,载《南京社会科学》2023年第10期,第80页。

[20] 本案一审判决书指出,涉案人工智能模型设计者既没有创作涉案图片的意愿,也没有预先设定后续生成内容,其并未参与到涉案图片的生成过程中,于本案而言,其仅是创作工具的生产者;其通过设计算法和模型,并使用大量数据“训练”人工智能,使人工智能模型具备面对不同需求自主生成内容的功能,在这个过程中必然进行了智力投入。但是,设计者的智力投入体现在人工智能模型的设计上,即体现在“创作工具”的生产上,而不是涉案图片上。故涉案人工智能模型设计者不是涉案图片的作者。

[21] 参见胡晓萌、陈楚仪:《AI Agent,为什么是AIGC最后的杀手锏?》,载微信公众号“腾讯研究院”https://mp.weixin.qq.com/s/DA3oNdu88LtM-BlqzGM03g,最后访问日期:2023年12月3日。

[22] Sony Corp. of America v. Universal City Studios, Inc., 464 U.S. 417 (1984).

[23] 参见郑成思:《知识产权论》,法律出版社2001版,第249-323页。

[24] 参见王利明:《生成式人工智能侵权的法律应对》,载《中国应用法学》2023年第5期,第32页。

[25] 当然,还存在一种这样的观点,从产品责任的角度来看生成式AI,将生成式AI理解为一种产品,AI的提供者将承担产品责任。这是一种严格责任。但是,多数学者认为不应将产品责任适用于AI服务。参见周学峰:《生成式人工智能侵权责任探析》,载《比较法研究》2023年第4期,第121页;同注释99,第33页。

[26] See European Commission , Brussels, Proposal for a DIRECTIVE OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on adapting non-contractual civil liability rules to artificial intelligence(AI Liability Directive) , COM(2022) 496 final, 2022/0303 (COD), last visited: 2023-12-2.为避免繁琐,以下简称《人工智能责任指令》(提案),下文的相关引用省略该出处。

[27] 需要指出的是,《人工智能责任指令》(提案)主要是协调欧盟成员国法律关于因果关系关系的推定,其并非是协调成员国法律关于过错的规定。参见《人工智能责任指令》(提案)前言第22、24段。但是,该提案关于第4条第1款 a项确实规定了违反开示义务和欧盟或成员国法律下,过错的推定。

[28] 是指按照《人工智能法案》,承担提供承担者义务的主体包括制造者、经销者、进口者等。研发者可以被涵盖在其中。

[29] 参见《人工智能责任指令》(提案)第3条。

[30] 参见《人工智能责任指令》(提案)第4条。

[31] 参见程啸:《侵权责任法(第三版)》,法律出版社2020年版,第301页。

[32] 这些使用说明是以用户协议或者页面提示信息等方式存在。

[33] 这些使用说明以用户协议或者页面提示信息等方式存在。

[34] 参见《生成式人工智能服务管理暂行办法》第十四条。需要指出的是,采取的必要措施应该是合理的、符合比例原则的。考虑到模型优化训练的高成本,其与制止著作权侵权的成本之间往往不成比例,应十分谨慎使用。









请到「今天看啥」查看全文