今天分享的是
AIGC专题系列
深度研究报告:《
AIGC专题:生成式人工智能治理模型框架
》
(报告出品方:
新加坡信息通信媒体发展局
)
报告共计:
36
页
1.框架概述
维度:框架提出了九个维度,包括问责制、数据、可信开发和部署、事件报告、测试和保证、安全、内容来源、安全和对齐研发、人工智能公益,以促进可信人工智能生态系统的发展。
2. 问责制
-
设计:通过明确责任分配和建立安全网,激励人工智能系统开发链上的不同参与者对终端用户负责。
-
实施:责任分配应基于每个利益相关者在生成式人工智能开发链中的控制水平,以便有能力的一方采取必要行动保护终端用户。
-
安全网:共享责任模型为问责制提供了重要基础,通过明确赔偿责任,为终端用户提供了额外的保护。
3. 数据
-
设计:确保数据质量,以提高模型输出的质量,并以务实的方式解决潜在的有争议的训练数据问题。
-
实施:明确现有个人数据法律如何适用于生成式人工智能,使用隐私增强技术保护数据隐私,平衡版权与数据可访问性,促进高质量数据的访问。
-
评估:数据质量控制措施包括数据标注、数据清洗和数据验证,以确保数据的准确性和完整性。
4. 可信开发和部署
-
设计:模型开发和应用部署是人工智能驱动创新的核心,需要围绕开发、披露和评估采用最佳实践,并在此基础上实现基线安全和卫生措施的透明度。
-
实施:安全最佳实践包括预训练、微调、风险评估和安全措施,如偏差校正和敏感数据保护。
-
评估:透明度包括数据使用、训练基础设施、评估结果、缓解措施和安全措施、风险和限制、预期用途和用户数据保护等方面的披露。
5. 事件报告
-
设计:建立事件报告机制,及时通知和修复人工智能系统中的漏洞和故障,提高系统的安全性和可靠性。
-
实施:在事件发生前,软件产品所有者应采取漏洞报告措施,作为整体主动安全方法的一部分。
-
评估:事件报告应包括事件的描述、影响范围、采取的措施和修复情况等信息。
6. 测试和保证
-
设计:第三方测试和保证在可信生态系统中往往起着补充作用,通过独立验证提高系统的可信度和可靠性。
-
实施:测试方法应可靠、一致,并与内部测试互补,测试范围应包括模型的性能、安全性和可靠性等方面。
-
评估:测试结果应公开透明,以便用户了解模型的性能和安全性。
7. 安全
-
设计:生成式人工智能带来了对人工智能本身安全性的新关注,需要将传统软件安全问题与针对人工智能模型的新威胁向量区分开来。
-
实施:安全设计应考虑到生成式人工智能的独特特点,如自然语言输入和概率性输出,开发新的安全保障措施,如输入过滤器和数字取证工具。
-
评估:安全评估应包括模型的安全性、可靠性和鲁棒性等方面的测试。
8. 内容来源
-
设计:数字水印和加密来源等技术解决方案可以帮助用户识别人工智能生成的内容,提高内容的可信度和可靠性。
-
实施:政策应精心设计,以在正确的背景下实现实际使用,与内容生命周期中的关键方合作,提高用户对内容来源的理解和使用工具进行验证的能力。
-
评估:内容来源的评估应包括数字水印和加密来源等技术的有效性、可靠性和安全性等方面的测试。