专栏名称: 网络空间治理
专注网络空间治理领域(包括但不限于法律、战略、技术、管理)的理论与实务。
目录
相关文章推荐
科学家庭育儿  ·  99%的孩子数学成绩不好,真的不是因为笨,而 ... ·  昨天  
超级学爸  ·  清末的剧本!美国特马的百日维新开始了 ·  昨天  
丁香妈妈  ·  别再乱买绘本了,0~6 岁建议这样选和读 ·  2 天前  
51好读  ›  专栏  ›  网络空间治理

美国人工智能治理前沿

网络空间治理  · 公众号  ·  · 2024-04-23 16:18

正文

来源:清华大学人工智能国际治理研究院

发布时间:2024-04-22


海外智库观察

人工智能的发展不仅需要前沿的技术创新,也需要有效的治理体系和广泛的公众认同。本周,我们选择兰德公司的《白宫人工智能行政命令如何确保有效的治理制度》和布鲁金斯学会的《白宫人工智能行政命令如何确保有效的治理制度》两则报告,希望总结美国在人工智能治理中增强公众信任、加强制度建设两方面的最新经验,把握美国在人工智能治理领域的前沿动态。


兰德公司

Land



美国政府需要解释人工智能技术的使用方式以增强民众的信任

2024年3月22日,兰德公司发布了其国土安全研究部管理、技术和能力项目副主任Douglas Yeung和政策研究员Benjamin Boudreaux共同撰写的文章《美国人需要知道政府将如何使用人工智能(Americans Need to Know How the Government Will Use AI)》。文章指出了美国公众对科技驱动的政府监控感到担忧的问题,并建议美国政府在部署人工智能这类新技术时谨慎行事,从受影响最严重社区的角度考虑技术的部署安排,以增加公众对政府的信任。


首先,作者指出,美国民众对技术驱动的政府监视的担心由来已久,而随着国土安全部近期宣布使用CBP One应用程序,并利用其人工智能面部识别技术来识别庇护申请者,再次引发了公众对政府使用人工智能技术的担忧,尤其是这一应用程序对识别肤色较深的寻求庇护者的能力较差。


为寻求公众支持的技术使用方式,作者与国土安全部的研究团队在2021年对2800名成年人进行代表性样本调查,结果显示影响公众对技术支持情况的因素有二: 其一,美国民众更加关注技术的使用方式而非技术本身。 例如,受访者支持政府使用面部识别技术来调查犯罪、跟踪移民,或者在体育场或投票站等公共场所进行识别,以识别犯罪的受害者和潜在嫌疑人;而对面部识别技术的广泛应用而持怀疑态度,比如受访者对面部识别结束用于监视抗议活动或监控投票站持保留意见。其二, 围绕特定技术使用的保障措施也会影响民意。 调查显示,提供与技术互动的替代方案、定期进行审计以确保技术准确无误且不会对人群产生不平等影响,以及提供关于技术使用方式的通知和透明度等措施能够增加民众对于政府使用技术的信任。同时,美国民众并不希望采取一刀切的方法,而是希望政府的保障措施能够根据技术应用的具体背景进行调整。然而,尽管当前国土安全部已经实施了类似的保障措施,但在作者看来,这些措施的执行缺乏一致性,比如,虽然机场安检时的使用面部识别进行身份核验并不是一项既定要求,但一些旅客称其并未被告知这一核验方式是可选的,因而,政策的执行不力可能会引发公众对政府的不信任感。


最后,作者提出了2条建议:其一, 政府应当把握让公众建设性地参与到技术使用过程中的机遇。 并且,由于仍有一部分受访者表示,其对于政府使用技术持中立或模糊的态度,作者建议 美国政府机构争取这部分持“摇摆”态度的民众的信任,以帮助政府推广新技术的使用。 其次, 政府在部署新技术时应当充分考虑到受到技术负面影响最深刻的社群, 持小心谨慎的态度,并把握新技术的优势与风险,从而 充分了解公众对于技术使用方式的偏好,以增强公众对于技术使用的信心和对政府的信任。







布鲁金斯

Brookings Institute


白宫人工智能行政命令如何确保有效的治理制度

2024年3月28日,布鲁金斯学会发布了其治理研究高级研究员、技术创新中心主任、TechTank 联合主编Nicol Turner Lee撰写的文章《白宫人工智能行政命令如何确保有效的治理制度(How the White House Executive Order on AI ensures an effective governance regime)》。文章总结了美国白宫人工智能行政命令、其目标及其影响,深入研究其发布和制定的政府背景。蓝图发布后,有至少五个联邦机构开始负责任地使用自动化系统的指南,但联邦机构全面遵守这些活动的细节和范围在时间表和可交付成果方面仍然存在差异。而2023年初美国国家标准与技术研究院发布的人工智能风险管理框架(Artificial Intelligence Risk Management Framework, AI RMF)1.0版是一个供组织设计和管理值得信赖和负责任的人工智能的多功能工具,其在当年7月,白宫获得了七家领先的美国人工智能公司的自愿承诺,以确保先进人工智能系统的安全、保障和信任。


首先,作者对关于白宫行政命令的基本原则进行了介绍。2022年10月,白宫科学技术政策办公室发布了《AI权利法案国家蓝图》,提出了人工智能负责任使用的非约束性路线图。这份全面的文件(或蓝图),确定了五项核心原则,以指导和管理有效的人工智能系统的开发和实施:安全有效的系统、算法歧视保护、数据隐私、通知和解释以及人类替代方案、考虑和回退。该框架中的建议有:在部署前进行风险和歧视评估,要求就用户数据的“收集、使用、访问、传输和删除”获得同意,发布对自动决策的明确解释,以及在某些情况下提供人工审查自动决策的访问权。该蓝图的目的是概述消费者的权利,以在一定程度上掌握对其代表他们做出的自主工具和决策的控制。在发布蓝图后,至少有五个联邦机构制定了自己的负责任使用自动化系统的指导方针,一些机构还建立了自己的中心或办事处来实施这些指导方针,至少有十几个机构发布了关于在其管辖范围内的行业中使用自动化系统的某种约束性指导,但联邦机构全面遵守这些活动的详细程度和范围仍在各个方面有所不同。根据最近关于自愿和行政部门政府活动的更新,这些原则已帮助界定了AI模型风险管理的焦点,这是行业参与者普遍关注的问题。


其次,作者介绍了国家标准与技术研究所(National Institute of Standards and Technology, NIST)于2023年1月发布了的(AI RMF)1.0版本。这是一个用于设计和管理值得信赖和负责任的AI工具,旨在“自愿、保护权利、非部门特定、用例不可知”。AI RMF提供了两个角度来考虑平衡风险和利益的问题。第一,它提供了一个在AI环境中识别风险的概念性路线图,概述了与AI相关的一般类型和来源的风险,并列举了七个信任AI的关键特征(安全、安全和弹性、可解释和可解释、隐私增强、公平-管理有害偏见、负责和透明、有效和可靠)。第二,它提供了一组组织流程和活动,用于评估和管理将AI的社会技术维度与AI系统的生命周期阶段和涉及的参与者联系起来的风险。这些流程和活动的关键步骤是“测试、评估、验证和验证”,其四个核心功能——管理、映射、测量和管理。为此,NIST还将推出一个配套的“手册”,为AI RMF的“管理、映射、测量和管理”功能提供额外的建议行动、参考资料和文档。正如标题“1.0版本”所暗示的那样,2023年1月26日发布的文件并不是NIST在AI风险管理方面句点。该机构预计到2028年将进行全面、正式的审查,可能会产生2.0版本。最近几个月,NIST进一步推出了AI安全研究所联盟,以汇集行业、学术界和政府的利益相关者,共同制定和推广标准、最佳实践、基准等。该联盟支持AI安全研究所的更广泛倡议,该研究所也设在NIST内。







请到「今天看啥」查看全文