专栏名称: 中国法律评论
一个有态度、有力度、有温度的法律专业公众号
目录
相关文章推荐
山东高法  ·  建设工程施工相关纠纷的管辖确定 ·  20 小时前  
河北高院  ·  新春开工 | 衡水法院“解年俗 ... ·  昨天  
河北高院  ·  新春开工 | 衡水法院“解年俗 ... ·  昨天  
上海法治声音  ·  普法 | 明确酒店责任能否遏制偷拍乱象? ·  2 天前  
最高人民法院  ·  “这次机会,我会好好珍惜” ·  2 天前  
最高人民检察院  ·  从麦浪到馍香,解锁非遗花馍里的中国年味儿! ·  3 天前  
51好读  ›  专栏  ›  中国法律评论

【综述】第二届“浙江大学-慕尼黑大学知产对话工作坊” |著作权法遇上人工智能:一个比较法的视角

中国法律评论  · 公众号  · 法律  · 2024-11-21 06:06

正文



2024年11月1日, 第二届“浙江大学-慕尼黑大学知识产权法对话工作坊” 在杭州成功召开。作为两校校际合作框架协议的重要组成部分,本次活动由 浙江大学光华法学院、德国慕尼黑大学法学院 联合主办,由 浙江大学知识产权与竞争法研究中心 承办。



本年度工作坊的主题为 Copyright Law meets AI: A Comparative Law Perspective ,聚焦生成式人工智能技术对著作权法体系带来的挑战及应对策略,旨在通过比较法视角探讨这一当前备受关注的议题。本次工作坊汇集了德国慕尼黑大学、日本早稻田大学、美国斯坦福大学以及清华大学、中国人民大学、中国政法大学、中国社会科学院大学、香港城市大学、上海财经大学等国内外高校的专家学者,同时也邀请了业界相关领域的知名律师,共同围绕人工智能生成物的保护问题、侵权责任问题以及训练阶段的文本与数据挖掘这三大子课题展开深入探讨。



开幕式




浙江大学求是学院常务副院长、光华法学院副院长赵骏教授 代表主办单位首先对各位与会嘉宾的到来表示热烈欢迎。赵骏教授表示,浙江大学光华法学院高度重视与德国慕尼黑大学等国际知名院校的合作交流,为培养高层次涉外法治人才作出贡献。他指出,数字时代的法治建设面临双重任务:既要让法治插上数字的翅膀,也要将数字纳入法治轨道。他强调,这一进程需要处理好守正与创新的辩证关系,在时空联结、新旧传承、领域识别、规范形式、推进模式、时机选择等多个维度统筹推进。



作为活动的联席召集人, 浙江大学光华法学院助理教授魏立舟 慕尼黑大学法学院教授Matthias Leistner 先后致欢迎辞。两位教授系统回顾了浙江大学光华法学院与慕尼黑大学法学院的合作历程,表示欣喜地看到双方共同打造的对话工作坊平台日益成熟。当下,人工智能与著作权法的交叉问题已成为国内外学界关注的焦点议题,相关学术研讨密集展开。本次对话工作坊力求彰显特色:一方面立足国际视野,聚焦具体问题展开深入探讨;另一方面注重学术观点的交锋与互动。为此,每个专题研讨环节尽量邀请持不同立场的专家学者同台对话,促进观点的直接交锋;同时打破常规会议模式,不设固定与谈人,鼓励所有与会专家学者积极参与讨论,以期在思想的充分碰撞中激发新的学术灵感。



第一单元



  • 人工智能生成物的法律保护


1.何天翔(香港城市大学)



香港城市大学副教授何天翔 的报告题为 Shall We Prompt Copyright over AI-generated Pictures?


何天翔老师认为,北京互联网法院在“春风送来了温柔”案中确认了使用Stable Diffusion的用户为人工智能生成内容(AIGC)的作者。然而,从理论上讲,这一裁决不符合我们对著作权法理的传统理解。其中最重要的,即使找到一个人类主体将其视为作者,如AI用户,其贡献在思想表达二分法中也存在问题。美国版权局的相关决定表达了这一观点。


在“春风案”中,法院认为技术发展是人类逐渐将任务外包给机器的过程,并用照相机生成的摄影作品进行类比。但两者的选择材料和元素与选择最终结果有根本区别。摄影师在拍摄前可通过取景器预览最终效果,从而在物质上捕捉或修正其创意选择。而在使用AI将文本转化为图像时,可能存在无数种组合,最终创意决定是由AI作出,人类只是选择了一个结果。也就是说,即便第一轮输入再具体,对AIGC的影响也是间接的。


有学者认为,自第二轮起,AI用户已有具象化的内容作为创作基础,此时调整内容可能具备独创性,因而可能获得版权保护。但何天翔老师认为,此情形必须以AI能够精确执行指令为前提。


虽然各国著作权法的确未规定“正确的创作过程”,特别是线性过程,但AI的确在逐渐减少人类投入各类工作的过程,创作模仿只是其一。此技术带来积极效应的同时,也使创意工具和知识民主化降低了传统上需要大量训练的技能门槛,带来了包括剥夺我们接受训练和控制表达的机会(内在),以及几乎人人都能快速生成符合创意产业质量的成果(外在)的风险。


当然,即使北互作出不同裁决,遵循美国版权局的做法,上述风险仍会存在,AIGC在线交易仍会持续。但不提供保护,有可能在诉讼端减少无谓的纷争,可以维持创意生态的平衡,避免版权“圈地运动”破坏生态平衡。更重要的是,大量初中级作者会转向AI创作,而大模型的训练仍依赖人类数据,因为AI生成物用于训练会导致“污染”,最终阻碍AI发展。因此,不加区分的保护也将阻碍AI进步。


何天翔老师的观点是,训练过程并非可有可无。它让人们相信通过长期训练可以提升自己,而不是假装成为一个更好的自己。这对社会至关重要,但AI创作无法提供这种体验。一旦你快速到达目的地,却不知如何抵达,你便成了信息传递的工具,而机器成了主宰者。这不是版权的目的。


2.蒋舸(清华大学)



清华大学副教授蒋舸 的报告题为 How Much Contribution Is Necessary for User to Claim Copyright in AIGC?


蒋舸老师的报告与第一位报告人何天翔老师针锋相对。她的核心观点是:用户只需满足Feist的“最低限度创造性”标准,便可主张版权。版权排他范围随用户贡献力度发生变化:当用户实施了绝对控制、输入了作品或者进行了独创性修改时,版权排他范围延及非字面侵权;否则,只限于特定AIGC的字面侵权。


首先,低独创性贡献可以形成作品。将用户与摄影师进行类比,有助于我们从本体论层面理解低独创性AIGC构成作品的原理。摄影师通过摆弄相机来“演绎”现实世界,用户则通过操纵提示词、插件和参数等变量来“演绎”AI世界。尽管用户不能通过肉眼直观地看到被加工的Midjourney世界或者Stable Diffusion世界,但这不妨碍用户知道每个AI世界都是人类语言所能描述的所有现存与虚拟万物之图景集合。由于被加工对象自带大量信息,因此加工者贡献的信息与之混合便能产出大信息量、小概率的文艺成果,从而落入版权保护的范畴。


其次,将混合物称为“人的产物”并无不可逾越的障碍。特定AIGC的表达细节并非纯粹的机器产物,而是掺杂着人的贡献、属于人机贡献的混合物。如果我们以专利法上“发明/发现”争议为参考对象便可得知:当人贡献的信息与自然贡献的信息彼此混合之后,混合物究竟被称为“人的产物”(发明)还是“自然产物”(发现),绝非单依“发明”“发现”之字面含义以及混合物的固有特征即可回答的问题,而是取决于多重因素合力下的政策诉求。最终结果便是:人的贡献与人力之外的贡献(自然或者机器)混合之后,混合物既有可能被贴上“人类智力成果”的标签,也可能被剥夺“人类智力成果”的标签。


此外,蒋舸老师补充了两个新角度,以加强Feist标准的说服力。


第一是认知经济性。将低独创性AIGC与高独创性AIGC区别开来的认知成本太高、认知收益太低,因此正确的做法是在权利客体环节保持“理性无知”、容许版权分析框架“宽进宽出”。


第二是界权成本收益理论。在独立创作例外等规则运用妥当的情况下,版权是一种对社会公众而言代价轻微的权利。它既不享有专利般“赢家通吃”的残酷排他力,字面侵权时也无需高昂的权利边界厘定成本。按照Demsetz的理论,权利人并不需要为如此“廉价”的权利而自证巨大贡献。


蒋舸老师强调,我们不能小觑制止字面侵权的极端重要性,因为对权利人危害最甚的行为便是原样照抄。赋予用户无需复杂举证便能制止原样照抄的权利,是以最低社会成本建立版权秩序的方式。


最后,蒋舸老师针对当前讨论中容易引人误解之处,做出三点澄清:


第一,在讨论用户的作者身份时,我们只关心用户是否需要激励。因此,所有以“机器无需激励”为由反对AIGC构成作品的意见,均与关于用户作者身份的议题无关。


第二,用户并非作为机器的代位者取得版权,而是基于其本身的贡献而取得版权。


第三,在绝对控制说、多轮修改说、实质控制说和最低限度独创性贡献说中,最需要警惕的是绝对控制说。在法院贯彻合理救济力度的情况下,最终进入交易、乃至寻求法律救济的文艺客体,将限于高贡献、高价值AIGC。尽管如此,从理念上澄清用户取得AIGC版权的标准,仍然至关重要。


3.Matthias Leistner(德国慕尼黑大学)



德国慕尼黑大学GRUR讲席教授Matthias Leistner 的报告题为 The Flattening of Creative Industries? A Closer Look at the Copyright Protection of AI-Based Subject Matter.


Leistner教授首先从政策视角和个人关注点出发,强调了人类创造力需要保持一个必要的基准线。他认为,人类创造过程本身具有更高的价值,因为这种创造是建立在互动交流过程之上的,涉及到AI所不具备的情感因素,同时也是社会互动和民主的重要基础。这种创造过程对个人自主性和人格发展都具有重大意义。


在谈到AI对创意产业的影响时,Leistner教授指出这种影响因市场领域和工作类别而异。对于像Taylor Swift这样的知名艺术家来说,AI的威胁并不大,因为公众更看重艺术家的个人魅力和现场表演。然而,对于中低层次的创作者,特别是翻译、编剧、记者等职业群体来说,AI确实构成了严重威胁。这种威胁已经开始显现,特别是在那些个人特征标识作用较弱的领域(如编剧、翻译)。因此,透明度义务(transparency duties)非常重要。最后,AI的发展受限于人类提供的训练数据。


Leistner教授特别强调了AI引导的内容开发可能带来的问题。他指出,目前许多内容的开发已经开始依赖算法过程,这些算法通过精细的反馈循环来指导创作决策。这种趋势可能导致创意自由度降低,增加了平庸内容的产出,最终形成“创意泡沫”,即不断产生迎合平均水平的内容,质量逐渐下降。


以前述政策视角和个人关切为基础,Leistner教授认为从著作权法角度看,应该支持加强透明度义务,认为消费者有权知道内容是否由AI生成。然而,欧盟在推进这些规则时可能给创新带来了过多成本。


欧盟著作权法中可版权性的要求是,创造性决策必须以精确和客观的方式表达在最终产生的内容中,对控制和直接因果关系的要求相当高。Leistner教授认为,单一回合的人工智能生成内容不符合版权保护的条件,而经过一系列提示生成的内容在多数情况下也不符合。仅有两种例外,一是输入内容本身构成作品,且在输出内容中可识别;二是人类的创造性决策以精确和客观的方式表达在最终产生的内容中,且满足相当高的控制和直接因果关系。这确实会增加版权保护和版权保护作品评估的成本,但可以保证只有高质量的作品才能获得保护。


从正当性理论来看,无论是人格权理论还是功利主义理论,都倾向于要求相当水平的人类输入和控制,以保持创造的价值和社会的多样性。人格权理论在欧盟著作权法中尤为重要,但也影响了全球众多版权法,包括英美法系。现代功利主义理论不再纯粹追求经济利益,而是开始关注创造性过程对个人发展、开放多元民主社会的重要性,而AIGC缺乏人类沟通过程和生理过程的联系,因此版权保护难以证成。


对于未来发展趋势,Leistner教授提出了几个值得关注的问题。首先,AI生成内容的实际成本并非如表面看起来那么低。其次,创作者可能被迫使用AI来应对更短的截止期限和更低的报酬。他还担心可能出现新的赞助模式,即大科技公司可能只会资助那些有助于改进其AI模型的人类创作内容。


在国际合作方面,Leistner教授注意到各国在对待AI生成内容的保护上存在明显分歧。这种分歧使得需要更多地考虑法律冲突规则和原则,特别是在欧盟可能通过法律对其著作权法进行域外适用的背景下。


第二单元



  • 人工智能输出内容产生的著作权侵权责任


1.张延来(浙江垦丁律师事务所)



浙江垦丁律师事务所主任张延来律师 的报告题为 Does One Size Fit All?——Tired Liability Framework for LLM Service Provider.


张延来律师是“奥特曼”案原告方的代理律师,他的发言内容主要包含两个部分:


第一,平台侵权责任豁免的发展沿革。对于网络服务提供者(平台)侵权责任豁免条件,中国沿用并拓展了美国《千禧年数字版权法案》(DMCA)中的避风港原则,即平台在收到侵权通知后需要采取必要措施处理侵权内容(主要是删除),否则与侵权内容发布者承担连带责任。


近几年法院开始考虑对一些特殊类型平台适用不一样的免责规则,例如笔者代理的微信小程序案、云计算SAAS服务平台责任案,仅要求平台做到转通知等即可,而《民法典》第1195条也允许网络服务提供者根据服务类型采取必要措施。


第二,大模型平台的角色和责任分层。在围绕大模型平台形成的产业链中,通常分三个层级的模型角色,每一层次在技术实现、应用场景和责任承担方面都有其独特的特点和要求。


1. 底座(基础)模型:具备强大的通用处理能力,典型的例子如OpenAI的GPT系列模型。底座模型作为基础设施,其在法律层面主要应满足公法的合规要求。例如处置黄赌毒内容;其次需要对用户数据等尽到基本的安全义务;第三就是科技伦理审查,例如歧视问题等。


2. 行业垂直模型:在底座模型的基础上,针对特定行业或领域的数据进行进一步优化训练和调整后的模型。例如医疗领域的诊断模型、金融领域的风险评估模型等。


行业垂直模型主要应对行业监管的要求做出内容合规。例如金融领域对消费者投资行为的风险提示要求等。


3. 应用层模型:基于底座或行业垂直模型开发的具体应用,例如AI教育平台等。应用层模型直接面向终端用户提供可用服务,所以需依照“避风港原则”应对侵权问题。


张延来律师最后总结到,应用层的知识产权注意义务更重是符合其服务类型和商业逻辑的,毕竟其直接参与商业实践,应当对在具体场景下的内容保持足够的了解,加上应用层是基于定向生成的用户内容获益,所以无论是从侵权收益还是防范成本角度看,都应该由应用层承担更好的注意义务。


2.李铭轩(中国人民大学)



中国人民大学交叉科学研究院/高瓴人工智能学院博士后李铭轩 的报告题为 A Fault-based Liability for LLM Service Providers in Copyright Infringement.


李铭轩博士在报告中指出,生成式人工智能具有“记忆”和“再现”其训练数据的能力:语言模型可以逐字再现文字作品的内容,文生图模型也可以生成与虚拟角色相同或实质性相似的图像。由于在生成过程中发生了作品的复制和改编,上述情形可能构成对著作权的侵害。广州互联网法院判决的“奥特曼案”就涉及到这一问题。在该案中,法院判决生成式人工智能服务的提供者应当就人工智能生成物承担侵害著作权的责任。


首先,为什么服务提供者会成为责任承担的主体?实际上,生成式人工智能的用户也有可能成为责任承担的主体。用户是启动生成过程的主体,他们输入的提示词也会对输出的内容产生重大影响。但是,与用户相比,服务提供者有更雄厚的财力来支付侵权赔偿,并且更容易被追究法律责任。而且,追究服务提供者的责任也可以鼓励他们更好地监督用户,从而有效地阻止用户的侵权行为。因此,服务提供者更容易成为被追究责任的对象。


其次,为什么服务提供者应当承担过错责任?有观点认为,无过错责任可以促使服务提供者采取最优的活动水平,并减少法院认定过错的信息成本。但过错责任原则仍应是认定服务提供者责任的归责原则,原因如下:第一,过错责任更具弹性,可以激励多方主体均采取合理的预防措施。第二,过错责任减少了服务提供者的成本,更有利于鼓励服务提供者在人工智能的创新。第三,人工智能生成受著作权保护的内容并非高风险活动,没有必要适用无过错责任来控制这一活动的频率或规模。第四,通过细化注意义务、完善举证责任规则以及引入透明度义务,也可以减少法院认定过错的成本,无过错责任并非唯一的选择。


最后,应当如何认定服务提供者的过错?“奥特曼案”的判决指出,关键在于认定服务提供者应尽的注意义务。这些注意义务主要来自于法律法规对服务提供者义务的规定,例如《生成式人工智能服务管理暂行办法》规定的建立投诉举报机制以及标识义务等。另外,也可以通过列举和细化认定服务提供者过错需要考虑的因素,来为法院认定服务提供者过错提供指导。


3.厉彦冰(上海财经大学)



上海财经大学助理教授厉彦冰 的报告题为 The Right of Integrity – The Forgotten One in the AI Era?


厉彦冰老师指出,在当前AIGC著作权侵权问题的讨论中,学界和实务界普遍关注AIGC侵犯复制权、改编权和信息网络传播权的问题,而对保护作品完整权的讨论相对缺位。以奥特曼案和Anderson案为例,诚然,人工智能生成内容(AIGC)根据其与原作品的相似程度,可能构成对该作品的改编或复制,因此在著作权侵权案件中,复制权和改编权侵权问题成为讨论的焦点。但是,厉老师强调,在AIGC著作权侵权纠纷中,被忽视的保护作品完整权恰恰有不可替代的适用意义。通过多个实例,厉老师展示了AI对作品进行修改可能构成完整权侵犯的情形,并分析了保护作品完整权在奥特曼案和Anderson案被忽视的原因。


尽管存在一定局限性,厉老师仍然强调了保护作品完整权在AI时代的重要价值。首先,保护作品完整权旨在保护作品免受可能损害作者声誉或荣誉的贬损性处理,这种对原作品的改变不以与原作品相同或实质性相似为要件。


其次,保护作品完整权对作品形式和精神双重保护的独特功能,使得其对AIGC的控制范围不仅包括对原作品形式的改变,还包括对原作品使用的语境、作品精神内核和作者创作意图的歪曲。同时,其权利行使不受著作财产权许可、限制和例外的约束,因此即使经授权使用或改编作品的许可使用人对作品的改动仍可能侵犯保护作品完整权。 此外,其较长的保护期限对经典作品在AI时代的保护有重要意义。 报告


最后,厉老师提出了富有前瞻性的观点: 如果说复制权是传统艺术时代著作权的核心权利,信息网络传播权是数字时代著作权的支柱权利,那么改编权和作品完整权很可能将成为AI时代著作权的关键权利。 特别是在艺术风格和创意理念的保护方面,当传统著作权无法应对生成式AI模仿艺术家独特风格的挑战时,作品完整权可能成为创作者最后的著作权屏障。


4.刘家瑞(美国斯坦福大学)



美国斯坦福大学互联网与社会中心研究员刘家瑞老师 就人工智能生成内容(AIGC)可能导致的著作权侵权问题发表了自己独到见解。他认为AIGC引发的版权侵权可以分为如下三种类型:


第一类是“记忆化问题”。这一问题源于AI模型在技术层面的局限性。当AI模型的训练数据中某一内容存在多个副本时,例如一篇热门的纽约时报文章在互联网上被多次转载,爬虫在收集数据时会重复采集这些内容。这种重复采集导致逻辑回归运算失效,使AI模型“记住”并重复生成近乎相同的内容。这种情况在图像生成中同样存在,如Stable Diffusion生成的图像会复制包括Getty Images水印在内的完整图像要素。发言人强调,这本质上是一个技术缺陷,而非刻意的侵权行为。


第二类是“关联性问题”,刘老师形象地称之为“米老鼠问题”或“史努比问题”。这种情况指特定词语与图像之间形成了强烈的关联性,导致当用户输入某些特定词语时,无论是使用哪个AI模型(如Stable Diffusion、Midjourney或OpenAI),都会生成高度相似的图像。这种紧密的词图关联可能成为未来版权纠纷的主要来源。


第三类问题涉及将有版权的文字描述输入AI后生成图像的情况。刘老师以金庸小说为例,探讨了当受版权保护的文学作品被用作生成图像的提示词时,可能产生的版权问题。


在阐述这些问题的基础上,刘家瑞老师提出了几个值得深入思考的法律问题:


1. 在确认侵权的情况下,谁应该承担法律责任?是使用者、AI开发者、服务提供商还是提示词工程师?


2. 如果认定AI开发者应当承担责任,那么适当的救济措施是什么?禁令性救济是否可行?


3. 如果将AI生成内容的版权归属于用户,而该内容又构成侵权,如何处理这种矛盾?


4. 用户的个人使用是否构成合理使用?


发言人指出,这些问题之间存在密切的关联性,需要在法律实践中谨慎权衡。例如,版权归属与侵权责任的认定直接相关:如果确认用户是AI生成作品的作者,那么当作品构成侵权时,用户也将成为侵权者。这些复杂的法律问题目前尚无定论,需要学界继续探讨。


第三单元



  • 人工智能数据训练阶段的法律问题


1.上野達弘(日本早稻田大学)



日本早稻田大学上野達弘教授 的报告题为 Copyright meets AI from Japanese perspective: Focusing on TDM Exception.


上野教授介绍了日本文化厅于2024年3月15日发布的《人工智能与版权的一般理解》指南。作为该指南编制委员会的成员之一,上野教授表示委员会就超过70个具有争议性的话题进行了热烈讨论。


关于文本与数据挖掘的例外,上野教授强调日本是世界上第一个引入该例外的国家。他详细介绍了日本“非享受性使用例外”的特点:首先,它不仅适用于非商业性科研,也适用于商业性文本与数据挖掘活动,这意味着像OpenAI这样的商业公司在日本开展数据训练活动是被允许的;其次,该制度没有退出机制,著作权人不能选择退出;第三,允许以任何必要的方式利用作品,包括复制、传播等;第四,没有合法访问要求,即使通过规避付费或访问控制获取作品,只要是为了文本与数据挖掘的目的,也被允许使用。


上野教授特别指出,虽然日本因为“非享受性使用”例外的存在被称为“机器学习的天堂”,但这种例外仅适用于输入阶段,而不适用于输出。这意味着如果生成式AI产生的内容与现有受版权保护的作品过于相似,仍可能构成侵权。他提醒到,使用生成式AI时存在无意侵犯版权的风险,因为在技术上很难防止AI生成侵权内容。


关于“非享受性使用”例外的合理性,上野教授提出了三个理论基础:促进创新和竞争、保障研究的权利、版权范围的内在限制。他特别强调了日本采用的是第三种理论,即认为文本与数据挖掘活动本质上不属于版权法需要规制的范围,因为这种使用并不是为了享受作品本身。


最后,上野教授建议中国可以参考日本的模式引入类似例外制度,但同时提醒要注意欧盟AI法案的域外效应,特别是序言第53条的规定。他指出,即使在欧盟之外进行AI训练,如果要服务欧盟市场的用户,仍需要遵守欧盟的相关规定,这对欧盟以外的AI公司有重要影响。他也强调,从学术角度来看,需要思考如何构建一个超越国别法差异的全球版权体系。







请到「今天看啥」查看全文