专栏名称: 网络空间治理
专注网络空间治理领域(包括但不限于法律、战略、技术、管理)的理论与实务。
目录
相关文章推荐
摸摸艺术书  ·  重磅新书 / ... ·  昨天  
每天学点做饭技巧  ·  大S病逝,汪小菲眼睛哭肿:她这一生,大有遗憾 ·  3 天前  
Foodaily每日食品  ·  靠稀缺感从0-1后,KUMOKUMO怎么解单 ... ·  5 天前  
51好读  ›  专栏  ›  网络空间治理

Sora模型带来的人工智能法治问题思考

网络空间治理  · 公众号  ·  · 2024-04-09 17:31

正文

来源:民主与法制时报

发布时间:2024-04-07


文 | 北京航空航天大学法学院 赵精武 李飞凡
2月16日,OpenAI发布首个文生视频模型Sora,引发社会广泛关注。和ChatGPT生成文本、图片等信息不同,Sora可以根据用户指令生成几乎以假乱真的短视频。OpenAI公开的示例视频显示,高分辨率的画质、惊艳的细节无不说明人工智能技术水平已达到全新发展阶段。甚至在特定情形下,Sora生成的视频与人工制作的视频难以通过肉眼直观区分,会让人误以为是演员本人出演了该视频内容。

Sora模型发布后,市场对人工智能技术的未来前景反响强烈,但也产生了以“人工智能”为名的虚假宣传活动。部分营销机构以人工智能创业课程为噱头,伪造授课教师资质,“灌水”授课内容。这种虚假宣传行为不仅未能向公众有效普及人工智能技术知识,反而使不少消费者上当受骗,严重损害《中华人民共和国消费者权益保护法》所保护的消费者的知情权、公平交易权等权利。

Sora模型的发布不仅意味着人工智能技术应用步入全新发展阶段,也意味着需要重新考量人工智能引发的法律责任归属问题。比如,Sora模型可以自动生成视频代替人类的工作,但它必须以用户指令为基础,且需要用户清晰全面地表述自己的需求,才有可能生成符合预期的视频内容。因此,一旦Sora等模型生成侵权视频时,如何认定研发者、服务提供者以及用户对侵权行为承担侵权责任存有较大争议。总体来看,与ChatGPT相比,Sora模型所产生的新型技术风险主要聚焦于著作权保护领域。 一方面,训练数据是否侵犯他人的著作权,仍存在争议。 Sora模型作为典型的大模型,需要海量的训练数据实现其基本功能,而这些训练数据可能涉及他人的影视作品等视频素材,这是否属于著作权法意义上的“合理使用”,值得探讨。 另一方面,生成视频内容的权利归属存在争议。 从生成逻辑来看,用户经过思考输出自己的需求,Sora模型生成相对应的视频内容,用户理应有权享有该视频的著作权。然而,研发者和服务提供者所提供的技术服务与视频内容的生成还有显著的关联关系,倘若用户没有得到Sora等人工智能产品的辅助支撑,相关视频也无法生成。因此,在视频生成的可能性层面,研发者和服务提供者似乎也同样具有主张生成视频著作权的正当性依据。此外,伴随着Sora模型能够生成更为真实的视频,互联网上相应的虚假视频信息风险也可能显著提升,犯罪行为人可能利用Sora模型制作用于诈骗、敲诈等犯罪目的的非法视频等。






请到「今天看啥」查看全文