专栏名称: 计算机与网络安全
信息安全公益宣传,信息安全知识启蒙。
目录
相关文章推荐
上海发展改革  ·  S4最新进展!计划至2025年底项目具备交工 ... ·  13 小时前  
上海发展改革  ·  【虹桥之上】为企业提供出海服务,虹桥海外发展 ... ·  18 小时前  
哈尔滨日报  ·  晚九点半停止写作业!一地教育局通知 ·  2 天前  
51好读  ›  专栏  ›  计算机与网络安全

AI监管

计算机与网络安全  · 公众号  ·  · 2024-03-05 08:00

正文

微信公众号:计算机与网络安全

AI发展引发新的安全问题:以ChatGPT为代表的生成式人工智能正在重塑数字内容的生产方式和消费模式,显著地影响各行各业变革。今年以来,大模型技术与AIGC快速融合发展,大模型生成的内容能够达到“以假乱真”的效果。相应地,应用门槛的不断降低,使得“换脸”、“变声”等手段更容易实现,因AIGC滥用带来的虚假信息、偏见歧视乃至意识渗透等问题无法避免,对个人、机构乃至国家安全都存在较大的风险。因此对生成式人工智能服务的新监管需求也随着而来。目前。AI多带来的新安全问题主要包括AIGC内容安全和数据安全问题。


AI监管:政策与法规先行:考虑到AI可能对社会带来的安全问题,安全标准、法律法规和自我监管是对AI进行监管较为重要的基石。政府层面,亟需出台监管政策对其加以规范,实现监管覆盖全面化,分阶段、全流程规范AIGC相关要素。企业层面,也需要通过被监管以消除社会对AI大模型的不信任。中国政府重视AI产业,国内网信办等7个部委发布的《生成式人工智能服务管理暂行办法》将于2023年8月15日起正式施行,同时《国务院2023年度立法工作计划》显示,《人工智能法》已列入立法计划,AI监管政策正加速推进。


AI监管:平衡创新与安全、监管手段多样:AI监管主要是面向AIGC技术的违规应用,应对AIGC可能给社会、政治、金融、教育带来的危害,这是国家安全、社会安全的关键,因此,对于AI监管来说,要从内容安全机制、技术监管手段等层面进行突围。内容安全机制的原理是通过数据安全控制、算法备案和安全评估、内容安全合规等一系列流程确保生成内容符合法规和监管要求。技术监管手段的原理是利用AI对抗AI,通过海量测试数据集,对AIGC生成式模型的数据、过程、生成内容进行全过程的测试、监管。


AI监管有望催生千亿市场:2030年我国人工智能核心产业规模将超过1万亿元人民币。一般信息化投入中安全占比至少在5%-10%以上,而由于AI大模型特殊性,AI安全未来将成为所有参与方必须考虑的问题,贯穿从数据标注、模型训练和开发、内容生成、应用开发的事前一事中一事后全过程,投入力度不亚于传统安全投入,因此假设AI监管在整个产业链中的占比按照5%-10%来测算的话,我们预计到2030年国内AI大模型的监管市场规模将达到500-1000亿元。



AI监管:铸就创新与安全平衡之道(2023).pdf

粉丝群






请到「今天看啥」查看全文