专栏名称: 清华大学智能法治研究院
发布清华大学法学院、清华大学智能法治研究院在“计算法学”(Computational Law)前沿领域的活动信息与研究成果。
目录
相关文章推荐
51好读  ›  专栏  ›  清华大学智能法治研究院

美国NIST发布《双用途基础模型滥用风险管理指南》第二版草案

清华大学智能法治研究院  · 公众号  ·  · 2025-01-18 23:20

正文

2025年1月15日,美国国家标准与技术研究院(NIST)下属的美国人工智能安全研究所(US AISI)发布了《双用途基础模型滥用风险管理指南》(NIST AI 800-1)的第二版公开草案。该指南概述了在人工智能(AI)全生命周期中识别、衡量和减轻对公共安全和国家安全风险的自愿性最佳实践。

US AISI对初始公开草案(2024年7月发布)进行了多项改进,以提高其实用性,并融入了来自70多位行业、学术界和民间社会专家在初始评论期间提交的深思熟虑的反馈意见。

此扩展版的关键更新包括:

详述模型评估最佳实践:本版本新增了一个附录,提供了测量滥用风险现有方法的详细概述,旨在帮助开发者和其他用户使这些指南更具可操作性。

扩展网络、化学和生物风险领域的特定指南:为了帮助在高优先级的公共安全和国家安全领域实施这些指南,US AISI在文档中增加了两个广泛的附录——一个关于化学和生物滥用风险,另一个关于网络安全滥用风险。

强调边际风险框架:在整个文档中,US AISI进一步阐明了“边际风险”框架在评估和管理风险时的重要性,该框架用于分析给定基础模型的潜在影响。

涉及开放模型:这些指南已更新,以支持其按比例适用于开放模型开发者,并强调US AISI对开放和封闭模型的可信开发和部署的持续支持。

管理AI供应链中的风险:虽然模型开发者仍是这些指南的主要受众,但US AISI增加了额外内容,以支持AI供应链中一系列参与者的风险管理实践。

来自各种利益相关者的意见有意义地加强了最终指南。US AISI致力于确保广泛的输入和广泛的合作,以安全地利用这项技术的巨大潜力,并推进美国在人工智能创新方面的领导地位。

美国人工智能安全研究所 正在就《双用途基础模型滥用风险管理指南》(NIST AI 800-1)的第二版公开草案征求公众反馈意见, 截止日期为2025年3月15日。







请到「今天看啥」查看全文