今天分享的是AIGC
专题系列
深度研究报告:《AIGC专题:AIGC数据安全风险与治理对策》
(报告出品方:
中移智库
)
报告共计:
11
页
摘要
以 ChatGPT 为代表的 AIGC 成为新一轮科技革命和产业变革的重要驱动力量,深刻改变着社会的生产生活方式。同时,一系列安全风险也相伴而生,不仅加剧升级了传统数据安全风险,还催生了诸多新型复杂风险,给治理体系带来更大挑战。建议把握AIGC的技术特性和传播规律,从三方面持续提升治理能力:
一是制定更具针对性的治理政策,完善制度保障;二是将“敏捷治理”应用到对AIGC的监管全过程,打造多元协同治理体系;三是运用先进的技术手段,不断提高治理效能。
一、AIGC技术和应用重塑数据安全形势
区别于过往 AI 技术,AIGC 可通过对数据的识别学习,以适当的泛化能力生成文本、图像、音频和视频等多模态内容,这种技术革新在展现出强大创造力、生产力的同时,也带来了诸多超越传统治理边界的新挑战,深刻改变了数据风险形势。
(一)加剧了传统数据安全风险
一是 AIGC升级造假手段,虚假信息更难识别。AIGC表达方式贴近人类的对话风格与思维逻辑,内容呈现包含图文、音视频等多种模态,导致甄别信息真伪的难度较以往大大提高。这就造成,一方面网络舆情治理难度明显增加。AIGC使用门槛低、内容生成效率高,能够在短时间内编制大量虚假信息,导致官方辟谣等传统虚假信息治理措施难以发挥预期作用。例如此前被广泛转发的“杭州取消限行“新闻,就是使用 ChatGPT 编写的不实信息。另一方面网络诈骗防范难度显著提升。深度伪造(deepfake)等技术的恶意使用可生成极具欺骗性的视觉和音频内容,香港一起涉案金额高达 2 亿港元的多人 A换脸视频诈骗案就尤为典型1。这不仅危害个人权益,也对监管带来极大威胁,银行视频身份验证、案件视频证据等的可靠性将面临巨大挑战。
二是 AIGC 增加隐私风险,隐私防护难度加大。大模型已达千亿级参数,训练、应用和优化的全处理流程中涉及海量个人信息,为不当收集、隐私泄露等常见问题增添了新的风险敞口。一方面信息收集更“无感”。用户与 AIGC 进行问答时有时会不自觉地透露个人信息、商业机密等隐私信息,而为了实现智能化和个性化交互,AIGC往往会对这些数据进行记录、存储、学习,给用户的隐私带来严重威胁。例如,英国国家网络安全中心就明确指出 OpenAl等公司能够读取用户聊天中输入的查询内容?。另一方面数据泄露更“隐蔽”。除安全攻击事件外,在进行前向推理时,AIGC模型存在将训练数据中包含的隐私数据变换、拼接后生成输出,暴露给无关用户的风险。已有三星、摩根大通等多家知名企业出于隐私防护的目的禁用 ChatGPT工具。
三是 AIGC促进信息跨境流动,数据出境风险凸显。无论是用户使用境外部署的 AIGC 平台和服务,还是开发者调用境外算法模型来训练自己的定制化模型,都不可避免地涉及数据跨境传输,对数据治理带来极大挑战。一方面,AIGC数据体量大增速快且涵盖敏感信息,在跨境过程中存在传输链长、参与主体多元、威胁成因复杂等多重挑战,潜藏个人、企业乃至国家信息泄露的安全隐患。另一方面,数据规制角力影响国家对全球数据的支配力、AIGC发展的竞争力,世界各国对此都高度重视、持续跟进,例如欧盟最新颁布的《人工智能法案》对 AIGC数据使用有着严格的要求。各国跨境数据流动法规各异,如果在数据跨境传输中与当地法规冲突,可能引发跨国法律纠纷乃至更大冲突。
报告共计:11页