2024年3月28日,新美国安全中心发布其人工智能治理中心 (GovA) 的研究员Lennart Heim、人工智能治理中心政策主管Markus Anderljung和剑桥大学存在风险研究中心助理研究员Haydn Belfield共同撰写的文章《要治理人工智能,我们必须治理计算(To Govern AI, We Must Govern Compute)》。文章强调了算力治理的必要性和实现算力治理的可行性,并建议政策制定者谨慎使用这一政策工具实现治理目标,从而在实现安全目标和维护公民自由隐私之间取得平衡。
首先,作者阐释了算力的定义和算力具有可治理性的理由。
计算能力,简称“算力”,是推动人工智能(Artificial Intelligence, AI)进步的关键驱动因素。
在人工智能领域,研究人员发现了规模定律(Scaling Law),即随着用于训练模型的计算量的增加,训练目标的性能可预见性地提高。开发者将这一定律运用于大型语言模型、自动驾驶汽车、围棋机器人、蛋白质折叠预测等系统中,通过利用大量算力,在庞大的数据集上训练人工智能模型解决问题,从而取得了重大突破。基于算力带来的积极影响,科技公司通过提升硬件水平和增加投资以支持算力的发展,使得用于训练人工智能系统的计算量每六个月翻一番(如图1所示)。其中,AlphaGo、GPT-4往往是使用最多计算量训练的系统。此外,算力的自身特性以及在人工智能中的关键地位使其具有可治理性。首先,算力具有可检测性,由于大规模的AI开发需要大量资源的支持,并且通常需要成千上万的专用芯片在消耗大量电力的数据中心中,因而算力是易于检测和识别的。其次,算力具有可排斥性,因为用户访问数据、算法或模型的难度较高,因而需要对其进行治理。第三,算力具有可量化性,比如可以根据芯片每秒执行的操作次数或其与其他芯片的通信带宽来对算力进行量化衡量,因此可以较为容易地进行报告和评估算力。最后,算力的供应链集中化的特性,即从芯片设计、制造设备到芯片制造通常由少数行为体主导(如图2和图3),使得对算力进行治理具有迫切必要性。
图1
图2
图3
其次,作者基于算力的四个特性,讨论了算力治理对实现人工智能治理目标的好处与弊端。一方面,算力治理有助于支持三种类型的人工智能治理目标:其一,
增加对AI开发和部署的可见性。
算力的可检测性可以帮助人们以多种方式理解使用、开发和部署算力密集型AI系统能力的过程,例如,可以要求云计算提供商监控大规模的算力使用情况,从而使政府更好地识别潜在的问题或了解AI能力提升的情况。同时,还可以利用算力在AI系统训练和推理过程中的差异来帮助数据中心运营商了解客户的算力使用情况,进而以一种适当的方式来处理隐私问题。其二,算力的可排斥性和可量化性能够帮助AI在不同项目和行为体之间得到更好的分配。例如,决策者可以通过增加某些有益于AI研究和开发的计算资源来差异化推进有益的AI发展,亦可以被用于调节AI发展的速度,比如,政府可以通过购买大量的算力储备以调节经济中的计算量,从而影响AI的整体发展速度。其三,算力治理有助于
严格执行围绕AI开发和部署的规范与法律
。比如,多方行为体可以通过投票决定和分配使用大量算力的权力,以确保最具风险的训练运行和推理受到严格的审查,防止具有风险的训练的运行。另一方面,算力治理仍可能存在治理效果不佳的可能。其一,随着算法和硬件的不断改进,算力治理的效果可能会降低,随着实现任何给定AI能力所需的功率和成本的降低,算力也将会变得不可检测和可排斥。然而,算力治理的有效程度在很大程度上取决于算力的相对能力与绝对能力,只要算力的规模效应继续产生回报,少数行为体仍会进一步开发更前沿的、更强大的模型,算力治理就可以得到不断发展。其二,算力可能不适合用来治理具有危险能力的低算力专业模型。例如,AlphaFold 2仅使用少于1023次操作就实现了对蛋白质折叠预测的超人类表现;GPT-4等模型的计算量少了两个数量级这表明算力治理措施似乎更适用于源自少数算力密集型模型的风险。此外,算力治理也可能带来巨大的负面影响,例如过度干预的算力治理措施可能会对公民的自由造成负面影响,增加对人工智能可见性的措施可能存在增加私人敏感信息或商业信息泄露的风险,以及随着算力作为经济和政治资源的重要性日益凸显,对算力的集中控制可能存在监管机构、政府和人工智能公司滥用权力的风险。
最后,为更好地实现算力治理的效用,在增加算力治理的有效性的同时减少意外的伤害,作者建议决策者谨慎和慎重地使用算力治理。第一,
应当更有针对性地出台和执行算力治理措施
,例如以重点关注开发和部署前言AI系统所需的大规模算力资源。第二,决策者应当
实施保护隐私的实践和相关技术。
当算力治理涉及包含个人信息的大规模算力时,要求企业减少对用户隐私的不当使用和获取。以云AI训练进行了解客户(know-your-customer, KYC)制度为例,仅将其应用于大量云AI算力的直接购买者,几乎不会为消费者带来隐私风险。第三,
将基于算力的控制聚焦于事前措施。
算力治理通常是一种粗糙的工具,通常用于减轻风险和维护既定群体利益,且侧重于事后机制,往往在一些不良行为发生后才采取惩罚措施。第四,决策者应当定期审查与控制算力相关的决策,根据算力的实际发展更新相关治理措施。第五,由于许多算力治理的措施可能被滥用,作者建议将实质性和程序性的举措纳入控制算力的措施。就实质性措施而言,这些控制措施可以通过限制可以实施的控制类型、监管机构可以请求的信息类型以及受此类法规约束的实体类型来防止算力治理的负面影响。程序性保障措施可以包括通知和评论规则制定、保护告发者的措施、监管机构内部的检查员和消费者代表、司法审查的机会、咨询委员会以及关于活动的公开报告。