专栏名称: 清华大学智能法治研究院
发布清华大学法学院、清华大学智能法治研究院在“计算法学”(Computational Law)前沿领域的活动信息与研究成果。
目录
相关文章推荐
完美Excel  ·  让deepseek实现从Word文档自动提取 ... ·  3 天前  
Excel之家ExcelHome  ·  6个Excel序号技巧,新手必会 ·  2 天前  
Excel之家ExcelHome  ·  五个公式一枝花,月入三千都靠他 ·  4 天前  
Excel之家ExcelHome  ·  Excel算年龄,DATEDIF会不会? ·  3 天前  
完美Excel  ·  初试deepseek ·  5 天前  
51好读  ›  专栏  ›  清华大学智能法治研究院

英国推出标准化的人工智能安全验证数字平台

清华大学智能法治研究院  · 公众号  ·  · 2024-11-08 16:44

正文

2024年11月6日,英国政府 发布的一份新闻稿介绍称, 英国正提供一个平台,以帮助企业评估并减轻随着人工智能(AI)使用日益广泛而带来的相关风险。该人工智能安全保障平台是一个“一站式”指导和资源中心,旨在为企业提供工具,以便在开发和使用AI产品和服务时进行自身的影响评估和评价。该平台还包括用于评估机器学习算法是否存在偏见,并确保透明度和个人隐私保护的工具。许多生成式AI模型在符合欧盟法律关于偏见和安全性的基准方面一直面临挑战。英国 政府正为全国企业推出有针对性的支持措施,以确保它们能够安全、可信赖地开发和部署AI,从而推动经济增长和提高生产力。 新闻稿还提出 进一步的支持措施将包括为中小企业(SMEs)提供自我评估工具,以在其组织中实施负责任的AI管理实践,并在开发和使用AI系统时做出更明智的决策。

英国科学、创新和技术国务秘书彼得·凯尔(Peter Kyle)在新闻稿中强调了负责任使用AI系统的重要性。他表示:“AI在改善公共服务、提高生产力和重建经济方面具有巨大潜力,但为了充分利用这一潜力,我们需要建立对这些日益融入我们日常生活的系统的信任。”新闻稿称,由政府支持的英国AI安全研究所最近推出了一个系统性AI安全资助计划,为来自学术界、产业界和民间社会的研究人员提供最高达20万英镑的资金支持。 AI安全确保了AI系统按预期运行,进而增强公众对这项技术的信任,特别是要确保AI系统的公平性、透明性和对个人隐私的保护。

除了国内努力外, 英国人工智能安全研究所(AI Safety Institute) 还与新加坡签署了一份合作备忘录,以加强在负责任AI开发方面的国际合作。该协议旨在加强研究工作,并为AI安全制定共同的政策和标准,新闻稿指出。

新加坡数字发展与信息部长约瑟芬·提奥(Josephine Teo)在新闻稿中表示:“特别值得一提的是,我们共同支持国际AI安全研究所网络(AISI)。通过加强我们各自AISI的能力,我们力求提升AI安全性,以便我们的民众和企业能够放心地利用AI,并从其广泛应用中受益。”

目前,约有524家公司构成了英国AI领域的这一细分市场,雇佣了超过1.2万人,并创造了超过10亿英镑的产值。这些企业为各类组织提供安全开发和使用AI所需的工具,随着AI在英国企业和组织中的广泛应用,这一需求日益增加。 新闻稿中提到,一份新的报告预测,到2035年,英国的AI保证市场将增长六倍,达到65亿英镑以上。 AI技术的运用是英国政府改革国家公共服务和整体经济计划的核心,与此同时,确保公众对这些最终将推动改革的创新技术保持信任也至关重要。

与此同时,在美国,由于白宫规定私人部门的AI创新要像军事技术一样受到保护,科技公司在AI开发方面的国际合作伙伴关系受到限制。

英国AI安全研究所继续与国际合作伙伴紧密合作,包括支持本月晚些时候在旧金山举行的国际AI安全研究所网络(International Network of AI Safety Institutes)成员首次会议。为进一步扩大其全球影响力,AI安全研究所今日宣布与新加坡建立新的AI安全合作关系。该协议由彼得·凯尔和新加坡数字发展与信息部部长约瑟芬·提欧(Josephine Teo)今日下午在伦敦签署,双方研究所将密切合作,共同推动研究,并制定一套共同的政策、标准和指导原则。

新加坡数字发展与信息部部长约瑟芬·提欧表示:

“我们致力于实现新加坡及全球范围内‘AI为公众谋福祉’的愿景。与重要合作伙伴英国签署这份合作备忘录(MoC),是在现有共同利益领域的基础上,拓展AI领域的新机遇。特别重要的是,我们共同支持国际AI安全研究所网络(AISI)。通过加强各AI安全研究所的能力,我们力求提升AI的安全性,让我们的民众和企业能够信心满满地利用AI,并从其广泛应用中受益。”

这将推动AI安全的发展,并加强在全球范围内负责任地开发和部署先进AI模型的共同方法。这一合作伙伴关系建立在去年11月AI安全峰会上两国作出的承诺,以及国际AI安全研究所网络在研究、标准和测试方面协调工作的雄心之上。

AI安全研究所所长伊恩·霍加斯(Ian Hogarth)表示:

“有效的AI安全方法需要全球合作。这就是为什么我们如此重视国际AI安全研究所网络,同时也在加强我们自己的研究合作伙伴关系。与新加坡的协议是我们两国长期合作愿景的第一步,旨在共同推进AI安全科学,支持最佳实践和规范,以促进AI系统的安全开发和负责任使用。”

这些公告是在科学国务秘书于《金融时报》未来AI峰会开幕日发表的讲话中提出的,该峰会汇集了政府、企业和科技领袖,共同探讨企业在投资AI的同时如何应对这项技术的潜在风险。

与此同时,AI开发商Anthropic警告称,政府只有18个月的时间来实施有效监管,以防止风险升级。随着布鲁克斯科技政策研究所(Brooks Tech Policy Institute)提出名为“SETO Loop”的新监管框架,以帮助政策制定者应对日益增长的AI治理担忧,对迅速监管的呼声愈发强烈。

Anthropic呼吁迅速制定AI监管

人工智能公司Anthropic正敦促各国政府在未来18个月内实施有针对性的监管,并警告称,随着AI能力的迅速提升,主动预防风险的窗口正在关闭。

该公司在一份政策文件中指出:“拖延可能导致最糟糕的结果:既阻碍进步的拙劣设计、应急式监管,又无法有效预防风险。”

据该公司报告,AI能力取得了显著进步,软件工程任务的性能从2023年10月的Claude 2的1.96%提升至2024年10月的Claude 3.5 Sonnet的49%。其内部的Frontier Red Team发现,当前模型可以协助完成与网络攻击相关的任务。同时,英国AI安全研究所(U.K. AI Safety Institute)的测试显示,一些模型在生物学和化学方面的表现已达到博士水平。

这家AI开发商主张采取三管齐下的监管方法:安全政策的透明度、鼓励更好的安全实践、以及简单且有针对性的规则。该公司指出,自2023年9月起实施的自家“负责任扩展政策”(Responsible Scaling Policy)可作为潜在模型。

虽然联邦立法是理想之选,但Anthropic建议,如果国会行动迟缓,则可能需要州级监管,并引用了加利福尼亚州此前尝试的《前沿人工智能模型安全与创新法案》(Safe and Secure Innovation for Frontier Artificial Intelligence Models Act)作为例证。

智库提出新AI监管框架







请到「今天看啥」查看全文


推荐文章
Excel之家ExcelHome  ·  6个Excel序号技巧,新手必会
2 天前
Excel之家ExcelHome  ·  五个公式一枝花,月入三千都靠他
4 天前
Excel之家ExcelHome  ·  Excel算年龄,DATEDIF会不会?
3 天前
完美Excel  ·  初试deepseek
5 天前
人工智能学家  ·  阿里研究院:未来科技的七大趋势解析
7 年前