近日,一段张文宏直播带货的视频在网上引起广泛关注,视频中“张文宏”正在直播间出售一款蛋白棒。随后,张文宏本人通过媒体公开表示,自己“被AI”了。
记者了解到,AI合成视频近来有愈演愈烈之势,通过AI合成技术假冒名人的事例时有发生,比如前不久的假靳东诈骗案、假小米CEO雷军辣评、假黄百鸣代言等。应用AI合成技术的法律边界在哪?一旦被侵权,当事人应当如何保护自己?相关监管又该如何跟上?记者专门采访了有关专家和一线司法人员。
AI合成技术应用门槛降低
“如今眼见真的不一定为实。”一位AI合成技术从业人士告诉记者。最初,AI合成技术被应用在生成图片、音频上,慢慢地,AI合成技术渗透到了短视频制作以及直播领域;随着人工智能技术的发展,AI合成技术应用门槛一再降低,只需要一张照片、一段音频,任何人都可以造出一个他想要模仿的样子。
“AI合成人像可能会侵犯公民的肖像权、名誉权和隐私权,具体需要结合实际情形来认定。”华东政法大学刑事法学院教授、博士生导师,华东政法大学经济犯罪与刑民一体化研究所所长张勇向记者介绍道,认定AI合成内容是否构成侵犯肖像权,关键在于是否经过被合成者的授权。法律保护个人肖像权,他人未经同意不得使用。若AI合成的他人肖像未经当事人同意,且该合成内容被用于商业或公开场合传播,可能构成侵犯肖像权。同时,我国民法典明确将声音权益作为特殊的人格权益予以保护。民法典第1023条规定,对自然人声音的保护,参照适用肖像权保护的有关规定。
“如果AI合成的他人形象或声音被用于虚假、恶意或误导性的内容,导致公众对该人物产生负面评价或误解,进而影响其名誉,则可能构成侵犯名誉权。”张勇说,模拟明星音乐风格,制作“翻唱”作品,还可能导致侵犯著作权等民事纠纷。
除了可能引发民事侵权纠纷,AI合成人脸或声音的技术,也可能被不法分子利用,成为犯罪的“帮凶”。浙江省杭州市萧山区检察院检察官章蕾结合办理的案件告诉记者:“‘AI换脸’等深度合成技术被广泛应用后,一些不法分子利用从互联网等渠道收集到的他人人脸信息等敏感个人信息,制作成虚假的换脸视频在网络平台进行传播售卖,不仅可能侵犯公民个人信息,威胁公共信息安全,而且极易引发电信网络诈骗、敲诈勒索、虚假宣传等多种关联违法犯罪,给不特定群众的人身财产安全带来重大隐患。”
“被AI”后维权面临取证难