专栏名称: 网络空间治理
专注网络空间治理领域(包括但不限于法律、战略、技术、管理)的理论与实务。
目录
相关文章推荐
福州新闻网  ·  黄晓明现身福州! ·  昨天  
福州道运  ·  【福运榕城】2月14日起,这条公交线路开通 ·  2 天前  
51好读  ›  专栏  ›  网络空间治理

人工智能治理:算力治理和基础设施风险

网络空间治理  · 公众号  ·  · 2024-04-30 16:07

正文

来源:清华大学人工智能国际治理研究院

发布时间:2024-04-29

近年来,人工智能的迅速发展归功于人工智能发展的三大要素:数据、算法和算力的同步提升。其中,算力为人工智能提供了基本的计算能力的保障,形成了重要的基础设施支撑。当前,随着人工智能算法模型的复杂度和精度愈来愈高,互联网和物联网产生的数据呈几何倍数增长,在数据规模和算法模型的双层叠加下,人工智能对算力的需求也越来越大。探讨如何对算力进行治理以及如何利用算力工具更好地实行人工智能治理具有重要的现实价值。本期智库观察聚焦人工智能算力和基础设施风险问题,选取新美国安全中心和兰德公司的2篇研究报告进行观察。


新美国安全中心

Center for a New American Security,CNAS


将算力应用于人工智能治理有助于提高治理效力

2024年3月28日,新美国安全中心发布其人工智能治理中心 (GovA) 的研究员Lennart Heim、人工智能治理中心政策主管Markus Anderljung和剑桥大学存在风险研究中心助理研究员Haydn Belfield共同撰写的文章《要治理人工智能,我们必须治理计算(To Govern AI, We Must Govern Compute)》。文章强调了算力治理的必要性和实现算力治理的可行性,并建议政策制定者谨慎使用这一政策工具实现治理目标,从而在实现安全目标和维护公民自由隐私之间取得平衡。


首先,作者阐释了算力的定义和算力具有可治理性的理由。 计算能力,简称“算力”,是推动人工智能(Artificial Intelligence, AI)进步的关键驱动因素。 在人工智能领域,研究人员发现了规模定律(Scaling Law),即随着用于训练模型的计算量的增加,训练目标的性能可预见性地提高。开发者将这一定律运用于大型语言模型、自动驾驶汽车、围棋机器人、蛋白质折叠预测等系统中,通过利用大量算力,在庞大的数据集上训练人工智能模型解决问题,从而取得了重大突破。基于算力带来的积极影响,科技公司通过提升硬件水平和增加投资以支持算力的发展,使得用于训练人工智能系统的计算量每六个月翻一番(如图1所示)。其中,AlphaGo、GPT-4往往是使用最多计算量训练的系统。此外,算力的自身特性以及在人工智能中的关键地位使其具有可治理性。首先,算力具有可检测性,由于大规模的AI开发需要大量资源的支持,并且通常需要成千上万的专用芯片在消耗大量电力的数据中心中,因而算力是易于检测和识别的。其次,算力具有可排斥性,因为用户访问数据、算法或模型的难度较高,因而需要对其进行治理。第三,算力具有可量化性,比如可以根据芯片每秒执行的操作次数或其与其他芯片的通信带宽来对算力进行量化衡量,因此可以较为容易地进行报告和评估算力。最后,算力的供应链集中化的特性,即从芯片设计、制造设备到芯片制造通常由少数行为体主导(如图2和图3),使得对算力进行治理具有迫切必要性。


图1


图2


图3


其次,作者基于算力的四个特性,讨论了算力治理对实现人工智能治理目标的好处与弊端。一方面,算力治理有助于支持三种类型的人工智能治理目标:其一, 增加对AI开发和部署的可见性。 算力的可检测性可以帮助人们以多种方式理解使用、开发和部署算力密集型AI系统能力的过程,例如,可以要求云计算提供商监控大规模的算力使用情况,从而使政府更好地识别潜在的问题或了解AI能力提升的情况。同时,还可以利用算力在AI系统训练和推理过程中的差异来帮助数据中心运营商了解客户的算力使用情况,进而以一种适当的方式来处理隐私问题。其二,算力的可排斥性和可量化性能够帮助AI在不同项目和行为体之间得到更好的分配。例如,决策者可以通过增加某些有益于AI研究和开发的计算资源来差异化推进有益的AI发展,亦可以被用于调节AI发展的速度,比如,政府可以通过购买大量的算力储备以调节经济中的计算量,从而影响AI的整体发展速度。其三,算力治理有助于 严格执行围绕AI开发和部署的规范与法律 。比如,多方行为体可以通过投票决定和分配使用大量算力的权力,以确保最具风险的训练运行和推理受到严格的审查,防止具有风险的训练的运行。另一方面,算力治理仍可能存在治理效果不佳的可能。其一,随着算法和硬件的不断改进,算力治理的效果可能会降低,随着实现任何给定AI能力所需的功率和成本的降低,算力也将会变得不可检测和可排斥。然而,算力治理的有效程度在很大程度上取决于算力的相对能力与绝对能力,只要算力的规模效应继续产生回报,少数行为体仍会进一步开发更前沿的、更强大的模型,算力治理就可以得到不断发展。其二,算力可能不适合用来治理具有危险能力的低算力专业模型。例如,AlphaFold 2仅使用少于1023次操作就实现了对蛋白质折叠预测的超人类表现;GPT-4等模型的计算量少了两个数量级这表明算力治理措施似乎更适用于源自少数算力密集型模型的风险。此外,算力治理也可能带来巨大的负面影响,例如过度干预的算力治理措施可能会对公民的自由造成负面影响,增加对人工智能可见性的措施可能存在增加私人敏感信息或商业信息泄露的风险,以及随着算力作为经济和政治资源的重要性日益凸显,对算力的集中控制可能存在监管机构、政府和人工智能公司滥用权力的风险。


最后,为更好地实现算力治理的效用,在增加算力治理的有效性的同时减少意外的伤害,作者建议决策者谨慎和慎重地使用算力治理。第一, 应当更有针对性地出台和执行算力治理措施 ,例如以重点关注开发和部署前言AI系统所需的大规模算力资源。第二,决策者应当 实施保护隐私的实践和相关技术。 当算力治理涉及包含个人信息的大规模算力时,要求企业减少对用户隐私的不当使用和获取。以云AI训练进行了解客户(know-your-customer, KYC)制度为例,仅将其应用于大量云AI算力的直接购买者,几乎不会为消费者带来隐私风险。第三, 将基于算力的控制聚焦于事前措施。 算力治理通常是一种粗糙的工具,通常用于减轻风险和维护既定群体利益,且侧重于事后机制,往往在一些不良行为发生后才采取惩罚措施。第四,决策者应当定期审查与控制算力相关的决策,根据算力的实际发展更新相关治理措施。第五,由于许多算力治理的措施可能被滥用,作者建议将实质性和程序性的举措纳入控制算力的措施。就实质性措施而言,这些控制措施可以通过限制可以实施的控制类型、监管机构可以请求的信息类型以及受此类法规约束的实体类型来防止算力治理的负面影响。程序性保障措施可以包括通知和评论规则制定、保护告发者的措施、监管机构内部的检查员和消费者代表、司法审查的机会、咨询委员会以及关于活动的公开报告。







兰德公司

Rand


人工智能技术将继续在关键基础设施领域得到广泛应用

2024年4月2日,兰德公司发布其高级政策研究员Daniel M. Gerstein和技术分析师Erin N. Leidy共同撰写的报告《新兴技术与风险分析:人工智能与关键基础设施(Emerging Technology and Risk Analysis:Artificial Intelligence and Critical Infrastructure)》。作者借鉴了有关智能城市的文献,构建了基于技术可用性与风险和情景的分析框架,并比较了未来十年中短期(至多三年)、中期(三至五年)和长期(五至十年)三个时期这些框架下的人工智能关键基础设施的可用性和相关风险。


首先,作者分别 从技术就绪度、使用范例、技术需求与市场、投入的资源、政策、法律伦理与监管障碍和技术可访问性五个方面对人工智能在关键基础设施中的可用性进行评估,并给出了相应的治理建议。 首先,人工智能领域包含的多种技术会在不同的时间尺度上成熟,使得确定人工智能领域的确切技术就绪度水平(Technology Readiness Level, TRL)具有挑战性。因此,作者建议将各个人工智能技术的TRL与可能开发的用例相关联,从而使检查人工智能可用性的更加行之有效。其次,由于人工智能技术的发展可能会变得不受控制和具有颠覆性,民众对其在就业、过度依赖、规则遵守和可控性方面存在担忧,作者建议同时兼顾人工智能技术的发展和相关的防范措施,以确保不会发生失控情况。第三,人工智能技术的就绪度不断提升使得越来越多的关键技术的可获取性将增加,人工智能系统的可用性也随之增加。作为人工智能的组成部分,人工智能系统的迭代推动了开发和训练模型所使用的数据量不断增加,民众对于人工智能模型的信心也将因而增强。然而,由于人工智能工作人员的供不应求,导致人力资本可能成为人工智能准入的壁垒。第四,包括国家领导人、联合国和工业界在内的广泛群体认识到了治理人工智能的重要性并出台了管控人工智能技术的政策,未来相关政策将继续完善。第五,随着人工智能模型的基础被开发,技术的扩散将无法避免。对此,作者强调,评估关键基础设施的本质仍是更好地使用人工智能技术,以提高信息通信效率、改善政府服务的质量,并为民众带来福利。总体而言,作者认为,人工智能应用将继续在新的市场和用例中得到整合,并导致人工智能可用性的增加。同时,这些应用将会变得更加复杂,并为用户提供更强大的功能(如表1)。具体表现为人工智能技术的就绪度将随着单个人工智能技术的研发成熟而持续增加,政策、法律、伦理和监管障碍不会对人工智能技术的使用构成重大障碍。但资源上的对立仍将存在,即开发复杂的人工智能系统将超出大多数寻求开发新人工智能系统的用户的能力范围,但利用人工智能系统进行各种合法和非法目的的情况很可能会更加普遍。


表1:作者从短期、中期和长期评估关键基础设施中的人工智能潜力


其次,作者从 威胁、脆弱性和后果三方面评估了人工智能技术对关键基础设施带来的风险。 首先,虽然人工智能技术能够带来提升效率和确保安全等好处,但其也存在不同的威胁来源。一方面, 人工智能在为防御者提供了先进技术的同时,也为供给者提供了尖端技术,增加了黑客攻击的入口,使其能够利用网络漏洞发动网络攻击,在人工智能系统的开发过程中,内部人员可能会造成疏漏并创建漏洞,使得这些漏洞成为被攻击的对象。







请到「今天看啥」查看全文


推荐文章
福州新闻网  ·  黄晓明现身福州!
昨天
墨香中华  ·  你的姓氏到底有多美?
7 年前
奇爱博士讲电影  ·  “影评侠”获奖名单公布
7 年前