人工智能时代,
AIGC技术及相关应用
“强势出圈”。除了感慨AI超强的内容生成输出能力之外,法律人士也纷纷开始思考AIGC带来的潜在法律风险及诸多科技伦理问题。
这些法律问题包括但不限于
个人信息滥用和隐私侵犯、AI安全、算法黑箱、责任承担、技术滥用
等等,在AI技术发展应用的“高歌猛进”中,各界也在积极探索和推进AI治理。
以
AIGC产生的版权纠纷
为例。美国最有代表性的是
“泰勒诉版权局案”
,案件关键就在于
完全由AI生成的内容是否享有版权
的问题。原告Stephen Thaler研发了一款名为“Creativity Machine”的AI软件,并使用它自动生成了一幅绘画作品。
但美国版权局以
“该作品没有人类参与创作”
为由拒绝了其版权申请,因此,原告向哥伦比亚特区法院提起诉讼,要求更正版权局的决定。
国内也有类似案件。原告李某利用开源AI软件Stable Diffusion生成了一幅绘画,并发布在自己的社媒主页中。被告刘某是一名创作爱好者,在另一平台发布的诗歌中将涉案AI图像用作插图。
原告就此向北京互联网法院提起诉讼,主张涉案AI图像构成美术作品,被告上述行为构成信息网络传播侵权等。法庭关注的焦点问题也是
“AI图像是否存在人类的创作贡献,进而获得版权法保护”
。
综上,AI生成内容版权属性的核心判断在于:AI究竟是仅作为一种辅助工具,对人类的创作构思加以
“映射呈现”
,还是说
“实质取代”
了人类对作品创作元素的构思设计?
落地到实践中,
基于相同著作权法理解的不同方向,存在哪些理论分歧?对司法实践及实务又有怎样的启发?
4月25日晚19:00
,全国审判业务专家
宋健老师
,将针对上述难题展开深度剖析。
实践中,AIGC生成物的著作权
是否应当受到法律保护?
为什么生成式AI对著作权认定的冲击如此之大?
——在生成式AI崛起之前,创作技术对版权制度的影响相对较小,创作在整个版权制度中是一个前置环节。在AI大规模应用之前,
大部分的创作技术都只是延伸性的辅助技术手段
,需要高度依赖人的创作构思,比如游戏视听领域的数字创作技术。
AI的出现,则使得在作品最终形成过程中,人类的贡献不断衰减、机器的贡献不断提升,这就直接冲击了
人类的创作主体定位
。
要讨论
对AIGC生成物的保护与否
,就需要对AI模型的运作机制以及人类利用AI工具进行创作的具体方式加以评估。
在我国司法实践中,
AI生成内容是否可以被纳入著作权保护范围?
这取决于其是否为
独立创作
、
能否在外在表现上与已有作品区分
、并且
享有最低程度的创造性
。著作权法保护的是人类的创作构思,即“对于创作元素最终和具体的选择安排”。
就AIGC现有的内容生成模式而言,使用者通过设计“提示词和模型参数”来生成内容,其实很难就使用者和AI模型的创作贡献大小加以准确判断。这是由于我国《著作权法》中关于作品独创性的判定,更倾向于
定性层面的“独创性有无”
,而非定量层面的“独创性高低”。
另外, AIGC作品的生成能力来自数据和模型,这些数据来源本身就存在隐患:AIGC模型往往需要经历一个预训练阶段,即通过对大量的样本数据进行学习和分析,提取数据的特征和模式。
这些训练数据也会不可避免地包含
他人享有著作权的作品
——这显然也不符合当前著作权法的要求,即在使用相关作品时,必须获得权利人许可,并支付相应的许可使用费。
那么,
如果AIGC作品未经许可使用他人享有著作权的作品,这是否构成了侵权行为?创作者是否要因此承担侵权责任?
随着科技的发展,既然不可避免地要使用到这类超级工具,那么
面对著作权的诸多争议,司法实践中应当如何回应?
4月25日晚19:00
,全国审判业务专家
宋健老师
,将针对上述难题展开深度剖析。
一、AIGC时代的变革
■ 内容生成与产业发展
二、AIGC生成物保护与不保护
■ 基于相同著作权法理解的不同方向,理论分歧与司法实践
三、AIGC时代面临的最大挑战
■ 超级工具使用的必然性与过渡时期方向探索的必要性