专栏名称: 网络空间治理
专注网络空间治理领域(包括但不限于法律、战略、技术、管理)的理论与实务。
51好读  ›  专栏  ›  网络空间治理

人工智能监管需要掌握不确定性下决策的科学与艺术

网络空间治理  · 公众号  ·  · 2024-05-23 13:53

正文

来源: 清华大学人工智能国际治理研究院

发布时间:2024-05-21

海外智库观察

由于人工智能技术的特殊与多元属性,其治理涉及多个维度:隐私、人权、虚假信息、多元监管者等。当前,人工智能技术对公民权益、虚假信息、网络等方面的负面影响引发了从专家学者、决策者到公众的普遍担忧,与此同时,谁来监管人工智能?谁来负责等问题也引发了广泛的讨论。因而,从人工智能的基本属性出发,讨论谁来治理、如何治理兼具理论价值和实践意义。


美国企业公共政策研究所

American Enterprise Institute of Public Policy Research, AEI



人工智能监管需要掌握不确定性下决策的科学与艺术

2024 4 11 日,美国企业公共政策研究所发布了兰德公司的技术和安全政策研究员 Bilva Chandra 撰写的文章《谁来 监控人工智能监控器? 他们应该注意什么?( Who Will Monitor the AI Monitors? And What Should They Watch? )》。文章强调了风险和不确定性的区别,指出了欧盟和美国在当前的人工智能监管中仅仅对风险进行管控,而忽视了不确定性问题,对此,作者建议,人工智能治理应当正视不确定性问题并做出合适的决策,以发挥人工智能的潜力。


首先,作者指出, 所有的监管活动都受到代理问题的限制,人工智能领域被监管者和监管者之间存在信息不对称的问题更加突出,使得被监管者比监管者更了解受到监管的事物 在人工智能领域,人工智能监管中的信息不对称问题更加突出。由于人工智能技术具有人类特性和不断迭代的特点,使开发者也不能完全地了解这一技术,并可能导致“黑天鹅”事件,使得审慎地风险管理也无法实现对其合理预期。对此,作者强调了人工智能技术的不确定性特点,并借助富兰克·奈特(Frank Hyneman Knight)在1921年提出的关于“风险”和“不确定性”的区别,指出了人工智能的不确定性难以被衡量和量化。因而,作者就人工智能治理提出了整体的方法论:不能仅仅采用风险管理的方式对其实施监管,而应当在直觉判断和经验教训的指导下,在这类复杂的、不稳定环境下建立其所适用的知识结构,并结合既已获取的具体信息来指导监管。


其次,作者指出, 虽然欧盟和美国都提出了各自的人工智能治理方案,对人工智能应用部署的治理有着不同的要求,但这两者监管方案的本质上仍是风险管理和问责的官僚程序,而忽略了对于不确定性的关注 一方面,欧盟出台的《人工智能法案(AI Act)》的文本中,在人工智能的“风险”方面列举了767个例子,美国在其“关于安全、可靠和可信地开发和使用人工智能”的行政命令中提到了风险101次,且二者都将治理基于这样的前提假设之上,即人工智能的开发者和部署者清楚了解应用可能带来的风险,并能自信地确定风险管理策略。然而,现实中,人工智能的发展还存在诸多不确定性。在不确定性方面,美国行政命令中根本没有提到不确定性,而欧盟庞大的文本中只有少数与法律不确定性有关的提及。另一方面,根据欧盟和美国的监管方案,受到监管的人工智能应用的部署者必须制定和登记注册负责该应用部署的具体个人,并被要求将应用的风险管理计划记录在案。尽管它们所管理的人工智能的结果仍然具有相当大的不确定性,但监管要求其呈现出具体和可量化的监管计划。


最后,针对欧盟和美国人工智能治理方案的弊端,作者建议 美国和欧盟建设一支专门人才队伍来监测和报告人工智能活动,这些官僚人员不仅应当了解人工智能的工作原理和风险管理的具体实践,还需要了解人工智能部署的企业、行业及其运作方式,进而积累其在不确定性状态下进行决策所需的知识与经验 尽管当前欧盟设立的人工智能办公室,美国的管理和预算办公室也将着手负责相关工作,但作者强调,欧盟和美国需要招揽的新型人才所掌握的技能不同于传统的政府官僚,其只有在正视不确定性下进行艺术和科学的决策才能真正发挥人工智能的潜力。








斯坦福大学以人为本人工智能研究所

Stanford HAI



人必须置于技术的中心位置以将人工智能技术惠及每一个人

2024年4月3日,斯坦福大学以人为本人工智能研究所发布了美国国务院网络空间和数字政策局数字自由特使兼协调员Eileen Donahoe、谷歌全球人权主管Alex Walden、联合国人权高专办专题参与、特别程序和发展权司司长Peggy Hicks、斯坦福大学网络政策中心联合主任Nate Persily和 艾默生集团 首席技术官Raffi Krikorian共同撰写的文章《生成式人工智能与人权的邂逅(Where Generative AI Meets Human Rights)》。文章反映了2024年2月14日专家学者们对于生成式人工智能对人权、民主等方面影响的讨论,并从联合国B-Tech倡议、参与基础、透明度等方面讨论了人工智能监管的出路。


首先,除了人工智能存在的一些常规性担忧,其也在其他方面带来了一些挑战。首先,如Nate Persily所言, 人工智能技术日益成为其他所有技术的基础 ,而广泛存在的人工智能技术正在不断重塑了我们所处的经济和社会关系的未来,使得人工智能技术具备独特性。同时,人工智能技术比其他技术更加不透明,其应用也更难以预见,比如,OpenAI团队在发布 ChatGPT 时,并没有想象到它会被用于编码,而ChatGPT当前超过一半的用途是用于编码。其二,Alex Walden指出, 人工智能具备高速和规模运作的新特点,其学习能力和适应能力都是以往的技术所不具备的,因而,人工智能技术具有复杂性 。其三, 人工智能的许多基础算法都是开源的,可访问性为恶意行为者提供了用武之地 ,比如,由于开源工具可以免费提供,导致了ChatGPT发布的第一年内出现了大量由人工智能生成的儿童色情内容。


其次,与会的专家学者们表达了对人工智能如何被使用以及已经被使用的强烈关切。第一,不同人工智能工具的快速迭代几乎使之存在着公众或决策者无法及时吸收的问题,导致技术的发展与其被吸收之间存在着巨大差距,这也将导致诸如网络虚假信息快速传播,而解决方案却未能及时制止等问题。第二,尽管联合国已呼吁暂停在人权侵犯最有可能发生的领域使用人工智能,但恰恰是在这些领域,技术进步似乎正在最快地推进。尽管人权从业者试图在法律上推进、补充、完善人工智能对人权负面影响的内容,但收效甚微。第三,虚假信息不断增长的问题可能会导致人们不仅相信谎言,甚至怀疑真实的事物。生成式人工智能传播的虚假内容为造谣者创造了可乘之机,使其能够充分利用民众对证据的不信任以扭曲事实真相。


最后,与会专家就人工智能监管问题提出了几点建议。第一, 人工智能监管应当关注联合国的 B-Tech(Business and Human Rights in Techonology Project) 倡议,让科技公司将人权纳入技术研发当中 。第二, 人工智能监管方案必须建立在广泛参与的基础之上 。然而,当前对于人工智能监管的讨论过于关注发达国家和英语国家,而忽视了人工智能技术欠发达和全球南方国家,因而,作者建议监管方案必须充分考虑到广大国际行为体,并包容地制定。第三, 应当提高人工智能工具的透明度 ,使得监管者充分了解人工智能模型的能力。第四, 对人工智能政策和监管应持包容态度 。当今对人工智能的讨论几乎处于高度的两极分化当中:人工智能产品或好或坏,其会毁灭世界抑或拯救世界;监管责任要么在于研发技术的企业抑或应当由政府全权负责等。因此,作者强调,必须找到同时参与这两种对话的方法。最后,就对未来生成式人工智能的态度而言,与会专家们普遍表示他们 持有所保留的乐观心态 。一方面,专家们对技术的发展前景感到乐观;另一方面,专家们对当前的社会感到悲观,并对全社会是否能够有效达成治理人工智能并应对未来的威胁而持怀疑态度。



布鲁金斯学会

Brookings Institution



人工智能使网路中立性的斗争变得更加重要

2024年4月9日,布鲁金斯学会发布了学会治理研究访问学者Tom Wheeler撰写的文章《人工智能使网络中立性的斗争变得更加重要(AI makes the fight for net neutrality even more important)》。作者介绍了“网络中立性”的概念和历史,并反驳了网络服务提供商(Internet Service Provider ,ISP)反对”网络中立性“的理由。从而指出,ISP很可能在没有网络中立性原则的情况下出现人工智能歧视等许多问题,并再次强调了连接消费者和企业的互联网最后一英里非歧视性访问以及公正合理行为的重要性。


首先,作者阐述了网络中立性的基本原则。从最广义上说,网络中立性的基本原则,即对21世纪最重要网络的开放和公平访问并没有因为人工智能的出现而改变,只是因为其到来而所加强。像所有的人工智能结论一样,GPT oracle的观察必须对照人类的理解进行验证。这方面的结论与之前关于网络中立性对视频和在线应用程序分发的重要性的决策无异。值得注意的是,正如早期在数字公司的经济实力使相形见绌时一样,主要人工智能提供商(通常也是主导数字平台的同一家公司)的经济力量超过了网络服务提供商(Internet Service Provider ,ISP),但对于连接消费者和企业的互联网最后一公里的公正合理访问仍是数字时代的基石。







请到「今天看啥」查看全文