近日,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布《人工智能生成合成内容标识办法》(以下简称《标识办法》),自2025年9月1日起施行。国家互联网信息办公室有关负责人表示,《标识办法》旨在促进人工智能健康发展,规范人工智能生成合成内容标识,保护公民、法人和其他组织合法权益,维护社会公共利益。(3月14日 新华网)
这一政策的出台,标志着中国在全球率先系统性规范AI生成内容标识的治理实践,主动回应了当下AI技术泛滥的潜在风险,亦是构建智能时代网络信任基石的制度创新。
生成式AI技术的快速发展,让虚假信息、身份冒充、网络诈骗等新型风险不断提升。2025年3月,网民徐某强利用AI生成“顶流明星在澳门输10亿元”的谣言,引发全网热议;2024年国庆期间,雷军因AI伪造的配音视频被恶意传播,陷入“被骂8天”的维权困境。一方面,AI生成内容的高仿真性加剧了公众对信息真实性的信任危机;另一方面,黑灰产团伙利用技术漏洞牟利,甚至研发“元数据擦除工具”规避监管。在此背景下,《标识办法》的出台,旨在通过“显式+隐式”双轨标识机制,从源头遏制技术滥用,重建网络空间的信任秩序。
《标识办法》的核心逻辑是通过技术标识串联生成、传播、监管全链条责任。显式标识要求服务提供者在内容或交互界面中以文字、声音、图形等用户可感知的方式标注AI属性,例如视频角落的“AI生成”水印、音频中的语音提示;隐式标识则通过元数据嵌入技术,在文件数据中记录生成时间、服务提供者、算法版本等信息,为监管溯源提供底层支撑。这种“人机双读”模式兼顾了公众知情权与技术追溯需求。
政策同时构建了责任闭环:生成端需根据内容类型(如是否可能引发混淆)选择标识形式,传播平台需检测未标识内容并补充提示,应用商店需核验上架APP的标识功能。例如,社交平台需对用户上传的AI生成图片自动检测元数据,缺失则提示用户补充说明;若检测到伪造政府公告的未标识文本,平台算法可毫秒级拦截。这种从源头到终端的全流程管理,突破了传统事后追责的被动模式。
值得注意的是,《标识办法》采取了“柔性治理”思路。例如,允许使用开源工具添加元数据标识,降低中小企业合规成本;对境外AI生成内容暂未强制标识,但提出通过国际规则互认逐步解决跨境监管难题。这种平衡安全与创新的设计,为技术发展保留了空间。
《标识办法》折射出智能时代治理逻辑的三重跃迁:一是,从被动堵漏到主动设防。传统网络治理依赖人工审核与事后处置,但AI生成内容的传播速度远超人力应对极限。例如,西藏定日县地震期间AI伪造的“被压在废墟下的小男孩”图片被大量转发,仅靠人工辟谣效率低下。《标识办法》通过前置标识机制,将风险拦截在传播前,标志着治理重心转向全周期防控。二是,从单一监管到多元共治。政策提出“全社会凝心聚力”,鼓励企业、高校、公众协同参与。例如,浙江大学配合中国电子技术标准化研究院联合开发的“人工智能生成内容标识服务平台”,向公众开放检测功能;公安部将标识管理纳入算法备案、安全评估等机制。这种“政府主导+技术社群协作+公众监督”的生态,打破了传统监管的单一主体局限。三是,从规则跟随到标准输出。中国此前在AI伦理、数据安全等领域多参照国际规则,而《标识办法》的发布使其成为全球首个系统性规范AI内容标识的国家。
尽管《标识办法》意义深远,但其落地仍面临多重考验。技术对抗首当其冲,如黑灰产团伙研发工具擦除元数据标识。对此,专家建议动态升级防篡改技术,例如在元数据中嵌入区块链哈希值。跨境监管盲区亦不容忽视,境外AI生成的涉华虚假内容如何标识?这需要跨国标识标准互认。
此外,公众认知鸿沟可能削弱政策效果。若公众缺乏主动辨识意识,标识机制可能流于形式。解决方案包括设计“AI标识寻宝”等互动游戏,或通过短视频科普元数据检测工具的使用方法。
《标识办法》的施行,不仅是技术规则的革新,更是人类与AI关系的重新定义。未来的治理或将呈现三大趋势:技术内嵌伦理,标识机制可能升级为“道德元数据”,记录内容生成时的公平性审查结果;动态适应性规则,通过区块链实现标识数据的实时更新与跨链验证;全球协同网络,推动联合国框架下的AI标识互认协议,避免“数据孤岛”。
在这场人机共生的实验中,中国迈出了关键一步。当每一段AI生成内容都带上“数字身份证”,AI内容的生产与传播便有了可追溯与规范的基础。而《标识办法》的价值,正在于为这场实验划定了底线,既释放AI的生产力,又守护人性的价值基准。