专栏名称: 清华大学智能法治研究院
发布清华大学法学院、清华大学智能法治研究院在“计算法学”(Computational Law)前沿领域的活动信息与研究成果。
目录
相关文章推荐
51好读  ›  专栏  ›  清华大学智能法治研究院

欧盟发布《通用人工智能实践准则草案(第一稿)》

清华大学智能法治研究院  · 公众号  ·  · 2024-11-15 19:13

正文

2024年11月15日,欧盟发布了 《通用人工智能实践准则草案(第一稿)》, 标志着该准则制定工作的重要里程碑。该草案旨在为未来可信、安全的通用AI模型的开发与部署提供指导框架。 此外,草案还包含了一些开放性问题,以指出需要进一步完善和推进的领域。 未来,最终版的行为准则将设定明确的目标、措施以及关键绩效指标(KPIs)。 对于通用AI模型提供者而言,该行为准则将详细规定透明度和版权相关规则。 特别是对于可能带来系统性风险的一小部分最先进的通用AI模型提供者,行为准则还将详细列出系统性风险分类、风险评估措施以及技术和治理缓解措施。 该稿子由欧盟任命的四个独立专家工作 基于通用AI模型提供者的意见与建议而 起草完成。分别解决 透明度和版权相关规则(工作组1), 系统性风险的识别与评估(工作组2), 系统性风险的技术缓解措施( 工作组 3 ), 系统性风险的治理缓解措施(工作组4)。此次发布的草案旨在广泛征求意见,相关反馈意见截止于 2024年11月28日。

一、主要内容

(一)通用人工智能模型提供者规则

1.透明度

措施 1: 向人工智能办公室提供文档:签署方需编制并更新模型技术文档,包括训练和测试过程、评估结果等,应包含如提供者和模型基本信息、预期任务和集成系统类型、可接受使用政策等内容,鼓励考虑向公众披露部分信息。

措施 2: 向下游提供者提供文档:签署方要为下游提供者提供使他们能理解模型能力和限制的信息,包括模型与外部软硬件交互、相关软件版本、架构和参数等,同样鼓励向公众披露部分信息。

附录:可接受使用政策基本要素:可接受使用政策应包含目的声明、范围、主要预期用途和用户、可接受和不可接受用途、安全措施、监控和隐私、警告和账户处理、确认等要素,为用户提供使用指南。


2.版权相关规则

措施 3: 制定版权政策:签署方需制定符合欧盟版权法的政策,涵盖模型整个生命周期,明确责任,在模型修改或微调时仅关注相应部分。

措施 4: 遵守文本和数据挖掘(TDM)例外限制:进行 TDM 时要确保合法获取版权内容并遵守权利保留规定,包括遵循 robots.txt、确保爬虫不影响搜索引擎可发现性、采用行业标准识别权利保留手段、参与制定标准、排除盗版来源等。

措施 5: 透明度:签署方要公开版权合规措施相关信息,包括权利保留合规信息、爬虫名称和 robots.txt 特征、指定联系点处理投诉、记录数据来源和授权信息等。


(二)系统性风险分类

1.系统性风险类型: 包括网络攻击、生化核风险、失控、自动化模型用于研发、说服和操纵、大规模歧视等,签署方还可识别其他风险,如重大事故、大规模隐私侵犯等。

2.系统性风险性质: 从起源、驱动因素、意图、新颖性、概率 - 严重性比、风险实现速度、可见性、事件进程等维度描述风险性质。

3.系统性风险来源

危险模型能力: 如网络攻击、生化核能力、自主性、说服力等,这些能力虽有益处但也可能引发风险。

危险模型倾向: 如与人类意图和价值观不一致、欺骗倾向、偏见等。

模型功能和社会技术背景:包括去除防护栏的潜力、工具访问、发布和分发策略、人类监督、模型泄露等因素。


(三)具有系统性风险的通用人工智能模型提供者规则

1.安全与安保框架(SSF): 签署方需采用、实施并公开 SSF,其全面性应与预期系统性风险的严重程度成正比,框架应包含风险评估、缓解措施、报告机制等内容。

2.风险评估

措施 8: 风险识别:持续彻底识别系统性风险,依据风险分类确定相关风险。

措施 9: 风险分析:采用稳健方法分析风险路径、映射风险指标、分类风险严重程度、预测风险发生时间。

措施 10: 证据收集:持续收集证据,包括模型无关证据、最佳评估、确保科学严谨性、充分评估模型能力、评估模型在不同系统中的表现、进行多样化评估、开展探索性工作、分享工具和最佳实践、透明报告评估结果等。

措施 11: 风险评估生命周期:在模型开发和部署的全生命周期持续评估风险和收集证据,包括训练前准备、训练中定期收集、部署中更新评估、部署后监测等阶段。


3.技术风险缓解

措施 12: 缓解措施:在 SSF 中详细说明从风险指标到安全和安保缓解措施的映射,包括安全缓解措施(如模型行为修改、部署防护、提供反制工具)和安全缓解措施(如保护未发布模型权重和资产、控制访问、进行安全测试、筛查内部威胁),同时说明现有措施的局限性和评估映射充分性的过程。

措施 13: 安全与安保报告(SSR):创建 SSR,包含风险和缓解评估结果、成本效益分析、方法细节、内部审查结果等,其全面性和详细程度应与模型的系统性风险指标成正比。

措施 14: 开发和部署决策:基于 SSR 建立决策过程,确定继续或停止开发和部署的条件,包括不继续的条件(如风险未有效缓解)和继续的条件(如改进缓解措施或通过成本效益分析),以及外部输入和决策机制。


4.治理风险缓解

措施 15: 系统性风险所有权:确保各级组织(执行和董事会层面)对系统性风险有足够的所有权,明确责任和资源分配。

措施 16: 遵守和充分性评估:每年评估 SSF 的遵守和充分性,考虑计划活动并向董事会报告。

措施 17: 独立专家系统性风险和缓解评估:在模型生命周期中适当进行独立专家评估,包括部署前充分测试、部署后允许独立研究,评估可根据风险程度调整。

措施 18: 严重事件报告:识别、跟踪、记录和报告严重事件及可能的纠正措施,建立报告和响应流程。

措施 19: 举报保护:实施举报渠道并提供保护,告知员工举报邮箱。

措施 20: 通知:向人工智能办公室通知模型相关信息,包括模型分类、SSF、SSR 和重大系统性风险,明确通知时机和内容。

措施 21: 文档记录:记录遵守准则和法案的证据,包括模型分类信息、SSF、SSR 和风险评估证据,考虑制定标准化模板。

措施 22: 公众透明度:适当公开 SSF 和 SSR 以帮助生态系统理解和缓解风险,可对可能增加风险或泄露敏感信息的内容进行编辑。


二、关键原则

1.与欧盟原则和价值观一致: 措施、子措施和关键绩效指标应符合欧盟法律中的基本原则和价值观,如欧盟基本权利宪章、欧盟条约和欧盟运作条约等6。

2.与人工智能法案和国际方法一致: 有助于人工智能法案的适当应用,考虑国际方法,如人工智能安全机构或标准制定组织开发的标准或指标。

3.风险相称性: 根据风险程度制定措施,对更严重或不确定风险的要求更严格,措施应具体、有针对性,区分不同风险类型和因素,平衡具体要求和灵活性。

4.面向未来: 子措施和关键绩效指标应能适应技术变化,参考动态信息源,便于更新,例如明确可能需要新措施的模型类型。

5.与提供者规模相称: 考虑通用人工智能模型提供者的规模,为中小企业和初创企业提供适当简化的合规方式。







请到「今天看啥」查看全文