2025年1月15日,美国国家标准与技术研究院(NIST)下属的美国人工智能安全研究所(US AISI)发布了《双用途基础模型滥用风险管理指南》(NIST AI 800-1)的第二版公开草案。该指南概述了在人工智能(AI)全生命周期中识别、衡量和减轻对公共安全和国家安全风险的自愿性最佳实践。
US AISI对初始公开草案(2024年7月发布)进行了多项改进,以提高其实用性,并融入了来自70多位行业、学术界和民间社会专家在初始评论期间提交的深思熟虑的反馈意见。
此扩展版的关键更新包括:
详述模型评估最佳实践:本版本新增了一个附录,提供了测量滥用风险现有方法的详细概述,旨在帮助开发者和其他用户使这些指南更具可操作性。
扩展网络、化学和生物风险领域的特定指南:为了帮助在高优先级的公共安全和国家安全领域实施这些指南,US AISI在文档中增加了两个广泛的附录——一个关于化学和生物滥用风险,另一个关于网络安全滥用风险。
强调边际风险框架:在整个文档中,US AISI进一步阐明了“边际风险”框架在评估和管理风险时的重要性,该框架用于分析给定基础模型的潜在影响。
涉及开放模型:这些指南已更新,以支持其按比例适用于开放模型开发者,并强调US AISI对开放和封闭模型的可信开发和部署的持续支持。
管理AI供应链中的风险:虽然模型开发者仍是这些指南的主要受众,但US AISI增加了额外内容,以支持AI供应链中一系列参与者的风险管理实践。
来自各种利益相关者的意见有意义地加强了最终指南。US AISI致力于确保广泛的输入和广泛的合作,以安全地利用这项技术的巨大潜力,并推进美国在人工智能创新方面的领导地位。
美国人工智能安全研究所
正在就《双用途基础模型滥用风险管理指南》(NIST AI 800-1)的第二版公开草案征求公众反馈意见,
截止日期为2025年3月15日。