如何下载资料?
微信扫下方二维码加入星球平台
【老会员续费特惠】
今天分享的是:AI专题:Al系统的网络安全治理实践
报告共计:26页
《AI系统的网络安全治理实践》由华为技术有限公司发布,旨在分享AI系统网络安全风险应对策略及工程实践。
1. AI网络安全备受关注
- 发展与风险并存:AI自1956年提出后发展迅速,算法、算力、数据是主要驱动力。随着能力增强,网络安全问题增多,引发广泛关注。
- 法规标准逐步完善:欧盟、美国、中国等都在积极立法和制定标准。如欧盟《人工智能法》,中国相关法律在AI场景的延伸适用等。国际上也有ISO/IEC等发布相关标准。
2. AI面临多种安全风险
- 数据安全风险:包括数据投毒和数据泄露。数据投毒可能导致模型错误,数据泄露会侵犯隐私和泄露商业机密。
- 模型安全风险:如对抗样本和提示词注入。对抗样本会使模型产生错误输出,提示词注入可操纵大模型执行有害操作。
- 应用和算力风险:智能体安全风险可能导致资金损失和数据泄露,应用框架安全风险可致系统被控制。算力底座存在硬件、操作系统和第三方件等层面的安全风险。
3. 华为的AI安全实践
- 治理实践
- 原则与职责:遵循安全为本、合法合规等原则,明确组织体系职责。
- 管理措施:包括合法合规、治理管理(如风险管理、度量验证与监督、应急处理等)、流程融入、工程能力建设和开放合作。
- 防护实践
- 可信根技术:通过加密引擎、机密计算、可信互联和可信计算保障算力底座安全。
- 五道护栏:从数据安全、模型安全、模型安全风控、应用安全和运营运维安全构建多层次防护体系。
以下为报告节选内容
扫下方二维码加入我们
免责声明:我们尊重版权,本公众号“人工智能学派“均属于通过公开、付费、合法渠道获得,不用于商业用途,报告版权归原撰写/发布机所有。公众号及社群所发布的资料,仅供社群内部成员市场研究以及讨论和交流,若有异议,如涉侵权,请及时联系我们,我们依相关法律对内容进行删除或作相应处理!