(一)平台发展概况与技术逻辑
当前,国内外主流人工智能视频生成平台仍保持迅猛态势。包括SORA、可灵AI、海螺AI、Runway、腾讯混元等平台快速发展。在国外,OpenAI于12月推出SORA Turbo,可生成最高1080p分辨率、最长20秒视频,并配备了故事板工具,允许用户根据个人需求定制内容。DeepMind于12月发布视频生成模型“Veo 2”,可生成最大分辨率4K的视频,并可以特定镜头和角度设计镜头画面。在国内,快手可灵AI于12月升级至1.6版,提升了画面美感并增强了镜头控制功能。MiniMax推出海螺AI,支持超写实、东方、二次元、科幻等多种风格的视频生成。阿里通义万相、腾讯混元文生视频平台也于9月和12月发布。这些人工智能文生视频模型平台的不断进步,正在推动人工智能视频创作技术的飞速发展。
上述人工智能生成视频平台的底层技术逻辑主要依赖于深度学习的生成模型,将图像生成技术扩展至视频生成。首先,平台核心技术基于深度神经网络模型,通常采用Transformer、生成对抗网络(GAN)或扩散模型等先进架构,通过对海量的视频数据进行预训练,学习场景构图、物体形状、动作时序和视觉风格等要素的映射关系。特别是扩散模型在图像生成领域取得显著进展,成为视频生成领域主流发展方向。扩散模型通过逆向扩散的过程,将随机噪声转化为清晰的图像或视频帧,且在视频生成过程中,必须保证多帧之间的时序一致性,通常通过时序注意力机制或3D卷积来实现。
其次,在技术实现上,Transformer架构与自回归生成方法在视频生成中也发挥了重要作用,视频生成模型通过序列建模生成每一帧或多个连续帧的潜在表示,并最终将其解码为可见的视频帧,许多平台采用编码器-解码器或纯解码器架构,将文本嵌入作为条件,逐帧生成视频,再通过图像解码器重建完整的视频序列。
再次,为了提高生成质量和稳定性,平台通常采用多阶段生成、风格迁移和特效融合技术,将初始生成的低分辨率视频通过超分辨率模型进行清晰化处理,进一步提升视频的视觉效果,以满足用户的定制化需求。
(二)人工智能视频生成技术平台的主要安全隐患
当前人工智能视频生成平台在技术逻辑上实现了从图像到视频、从静态到动态的生成模式进化,广电行业也积极运用AIGC技术,涵盖了视频采集、制作、传播、审核等环节,但各类安全隐患如虚假信息传播、隐私侵犯、版权纠纷、技术漏洞与监管难题也随之而来。
一是
虚假信息和误导性内容。深度伪造技术可以轻易将名人、政客或普通人的面孔合成到特定的场景中,从而制造出看似真实的虚假视频。这些视频可以用于政治宣传、经济诈骗或敲诈勒索等非法活动。此外,生成的视频还可能被用来伪造新闻事件,误导公众舆论,甚至干预选举等重大社会事件。这类虚假视频一旦广泛传播,将对社会秩序和公众信任造成严重损害。
二是
隐私与肖像权侵犯。平台用户上传的图像或视频素材可能被不法分子恶意利用,生成目标人物的虚假视频,侵犯个人的肖像权和隐私权。例如,通过将某人无意中参与的场景合成到虚假视频中,可能会导致该人物的私人生活暴露,或成为非法活动的牺牲品。
三是
版权和知识产权的风险。AI生成视频往往会利用大规模的训练数据,其中可能包含受版权保护的素材。若生成的视频未经过授权使用这些素材,可能会引发版权纠纷。同样,生成包含他人品牌或商标的虚假广告或宣传视频,可能导致品牌方的商誉损害,并构成法律上的侵权。
四是
技术漏洞和恶意攻击。黑客攻击可能导致平台上的用户数据、视频内容或个人信息泄露,造成严重的数据安全事件。针对生成模型的对抗性攻击也可能导致平台生成违禁内容,或使得现有的过滤机制失效,从而影响平台的内容安全。
五是
跨国业务的监管和法律风险同样不可忽视。各国在人工智能生成视频的监管上存在差异,平台在全球范围内运营时可能面临法律空白或法规冲突的问题,尤其是在内容的责任认定方面,如何界定平台、用户和开发者的责任,仍然是一个复杂的法律挑战。
(一)法律法规和平台自律并行并重的规制体系
近年来,我国先后颁布多项法律法规,从技术研发、数据合规、内容标识到网络生态治理多层面,为我国人工智能产业的健康发展奠定了更完善的法律与监管基础。
2023年8月15日施行的《生成式人工智能服务管理暂行办法》确立了生成式AI服务的基本准则和安全合规要求;2024年8月1日生效的《网络暴力信息治理规定》聚焦网络暴力信息的防控与处置;2024年9月公布的《人工智能生成合成内容标识办法(征求意见稿)》及配套国家标准《网络安全技术 人工智能生成合成内容标识方法》,全方位、多层次地规范人工智能内容标识要求和方法;2024年10月发布的《网络数据安全管理条例》强化了对个人信息、重要数据的管理,我国人工智能治理制度加快完善。
上述法律法规不仅要求AI生成内容需显式或隐式标识,便于社会公众与监管部门识别深度伪造视频,还对用户隐私、数据来源合法性和内容合规提出更高要求;对违法生成内容的下架、封禁、报告程序也作出明确规定,使平台对违规行为有更直接的处理依据与惩处手段;对知识产权与侵权责任同样提出了量化要求,要求平台在训练与推理过程中必须合规使用素材,杜绝违法采集或复制;对于极端、暴力和非法内容,平台须加强内容审核与实时处置,一经发现立即移除并上报。另一方面,这些法规还建立了分级分类监管、投诉举报机制,以及对技术对抗与安全漏洞的防护要求,进一步压缩了违法者的生存空间。
各人工智能生成视频平台也在技术和运营层面普遍采取多重防护措施,并通过用户协议、内容审核与隐私政策来进一步强化管理。
首先,
平台往往采取严格的数据加密、权限分级和审计日志等安全策略,确保用户上传素材(如图像、视频、文本提示)在存储和传输过程中获得充分保护,并遵循最小化使用与匿名化原则以减少不必要的个人信息留存。
其次,
生成模型层面则部署了内容过滤、检测与限制机制,在用户输入文本描述前后进行多轮审核,自动识别违法、色情、暴力、仇恨言论等不当内容并拒绝生成;部分平台还在成品视频中嵌入数字水印或元数据标记,以便追溯或区分AI生成与真实视频。
再次,
平台通常结合人工与自动化审查对用户提交的可疑内容进行进一步评估,一旦发现严重违规内容或侵犯他人权益,会及时下架并对相关账号进行处罚。用户举报与申诉渠道则赋予用户监督权,提升了审查系统的有效性。与此同时,各平台通过隐私政策和用户协议,明晰数据利用方式和用户义务,设置使用规范与违规处理机制,引导用户在合法合规范围内创作,整体上提升了内容生态的安全与可控性。
(二)需要持续关注的关键问题
尽管我国法律法规,以及各平台的技术和用户政策为AI生成视频平台提供了较为坚实的合规基础,但在实际应用中,技术进步的速度、跨国监管的复杂性以及高昂的合规成本,仍然是需要持续关注和解决的关键问题。
首先,
技术对抗与监管难度加大。人工智能技术发展迅速,尤其是内容生成算法上的进步,使得现有的监管措施往往存在滞后性,恶意用户可能通过对抗性样本和绕过水印的技术手段,继续生成和传播虚假或有害内容。
其次,
国际协作与跨境执法的问题依然严峻。我国相关法规主要适用于国内运营的平台,对于来自境外的AI生成违法内容,尤其是在全球化互联网环境下,执行和监管存在较大难度,需要国际间更紧密的合作与协调。
再次,
平台在落实法律要求时面临高昂的执行成本与合规细则落地的压力,为了满足严格的法律标准需要投入大量资源进行技术升级、人员培训和流程重组,为各平台带来较大的经济和运营压力,尤其是对于中小型企业而言压力更大。
最后,
具体细则的执行和落地可能会因为平台规模和技术能力的差异,造成一定的落差,影响法律法规的全面实施。