此轮AI快速发展引发了两种能耗焦虑:一是能耗是否会成为AI产业发展的瓶颈,二是AI能耗是否会影响绿色转型进程,对于我国而言就是是否会影响双碳目标的实现。围绕这两种焦虑,我们从AI自身的能耗、AI在电力消费端和供给端的应用以及AI给我国经济系统带来的能耗三层进行了分析。
AI产业自身有模型训练和推理两个主要的耗能环节。近期来看,由于AI产业处在发展之初的快速增长期,约束主要来自供给端。我们从供给端进行测算,结果表明我国AI发展带来的智算中心电耗或将在2030年最高达到约4300亿度,占全社会用电量的4.7%。远期来看,AI产业能耗与用户需求数量和任务复杂度密切相关。如果任务复杂度不变,需求数量上升将带来AI能耗的线性上升,但任务复杂度上升将带来AI能耗的超线性上升。同时,两股力量会抑制能耗的飙升,一是用户对性价比的要求会抑制产业对AI性能的极致追求,二是AI产业对芯片、服务器和数据中心能效提升的驱动力会随着产业规模的扩大持续强化。
AI技术能否在行业应用中发挥节能潜力呢?一方面,在电力消费端,AI能提高单个设备的运行效率和优化技术系统的运行流程,从而提高能效,这主要发生在生产制造环节、建筑用能和交通运输领域。另一方面,在电力供给端,AI还能够在一定程度上帮助未来的电力系统促进绿电发展,包括对绿电供应系统和绿电消纳体系的优化。
综合来看,AI的发展将会如何影响我国绿色转型进程?我们构建了CGE模型从系统性的角度考虑AI对能耗和碳排放的影响。结果显示,近期来看,AI在我国的大规模应用将带来能耗总量的上升,但是否带来碳排放总量上升、是否会有助于降低能耗强度和碳排放强度等均存在不确定性因素。如果大力推动AI在高耗能行业节能领域的应用,并加速AI对绿电发展的支持,或将有助于抵消AI能耗快速增长对我国绿色转型的负向扰动影响。
人工智能(AI)的快速发展正引发其对能源消耗的普遍担忧。国际能源署(IEA)在2024年的报告中预测,由于AI和加密货币的增长,全球数据中心的用电量将在未来几年内翻倍[1]。2022年,全球数据中心的用电量约为460TWh,到2026年这一数字可能达到1000TWh以上,大致相当于日本的发电量(2022年日本发电量为1013TWh[2])。总体而言,AI能耗的焦虑主要集中在两个问题上:首先,AI带来的能源消耗是否会影响该产业的持续发展;其次,AI的广泛应用是否会导致碳排放量的增加,进而对全球实现碳中和的目标构成威胁。为了深入分析本轮AI快速发展对我国能耗的影响,我们首先回顾了历史上通用技术大规模应用后对全球能耗产生的影响规律,并以此探讨了AI是否将遵循同样的规律;然后,我们具体从AI大模型自身能耗、AI对用能部门带来的能效提升以及对绿电发展的赋能等方面分析了我国AI的能耗影响,并构建了一个可计算一般均衡(CGE)模型,测算了AI对我国绿色转型的影响(图表7.1)。
回顾历史,我们似乎可以发现通用技术的应用与全球能耗存在一定的联系。从蒸汽机、内燃机和电力等与能源利用相关的通用技术,到互联网这类信息技术,在应用的初期都增加了全社会对能源的消耗,能源通用技术更是全球能源消耗总量快速上升的直接驱动因素。
但是,能源通用技术与信息通用技术对全社会能源强度的影响似乎存在差异。能源强度反映的是创造单位经济价值所需要消耗的能源。如图表7.2所示,自1800年开始,全球能源强度表现为先上升后下降,在20世纪中期左右出现拐点,整体趋势呈现倒U型[3]。美、欧、英等主要经济体的能源强度变化也遵循此规律,拐点集中在1970-1980年间[4]。有研究指出[5],这背后的主要原因是通用技术驱动产业结构变化。前两次工业革命主要是蒸汽机、内燃机等能源通用技术。这些能源技术能够提供工业所需要的能量密度更高的能源,而更重要的是,随着这些能源技术的不断进步,单位热值能源的开发成本能够持续下降,这也导致企业倾向于投入更多能源来扩大生产,而不是寻求更加高效的节能生产技术。这也许可以部分解释,为什么当全球经济结构迅速从第一产业向第二产业转移的过程中,能源强度会随之持续上升。反观信息通用技术,当它在大规模应用时,全球能源强度则在持续下降。我们可以简单的解释为这是因为它恰好处在全球主要经济体从第二产业向第三产业转移的过程中。但这可能反映了一个更底层的逻辑,即通用技术的发展已经从能源技术向信息技术转变,后者将不断提高人类的能源利用效率[6]。
图表7.2:1800年以来的全球能源消费量与能源强度变化
资料来源:Fouquet, R., and Hippe, R., The transition from a fossil-fuel economy to a knowledge economy, July 2019.,BP,Our world in Data,中金研究院
我们可以具体看看20世纪初以来的互联网技术的应用与能耗的关系。当互联网刚开始普及时,也曾经引发过能耗焦虑,其底层逻辑与AI一样都是由于计算量增加而带来了增量电耗。根据国际能源署的分析[7],全球互联网在2015-2022年期间,虽然用户数量增长了78%,流量增长了600%,但除去加密货币挖矿后的数据中心总能耗仅增加了20-70%,数据传输的网络能耗仅增加了18-64%。互联网技术能效的提升主要得益于IT硬件性能的显著提升、数据中心冷却技术的优化、数据中大型化和高效化等因素。也就是说,随着互联网技术应用规模的扩大,其能效在不断提升,使其能耗总量并没有持续高速增长,能耗增速随着用户数量的增长在持续收敛。而且,随着互联网用户增速的放缓,其能耗也将随之趋于稳定。
AI作为一种信息通用技术,其能耗是否会遵循历史上信息技术发展的规律呢?更具体一些,AI的发展虽然也会加速全球能耗的增长,但是否会在大规模应用的过程中不断提高自身能效,以及赋能其他经济部门提高能效,最终实现能耗增速逐步收敛,并为全球能耗强度下降做出正贡献?有研究认为,长期来看,虽然AI会带来全社会用能增加,但由于能源效率改善、清洁能源的利用等因素,大概率不会扭转能源强度下降的趋势[8]。但值得注意的是,短期来看,本轮AI对能源强度的影响还存在两个不确定性。一是生产率增长的滞后。1987年,索洛指出信息技术并没有在宏观经济统计数据中体现出相应的生产率增长,因此即使在大范围应用的情况下却收益颇微[9]。研究指出,若是由于前沿技术传播对提高经济产出的效果存在滞后性,或者生产率提高仅发生在技术生产部门而未包括技术应用部门,AI有可能再次上演索洛悖论[10],从而拉低能源强度分母的增速。二是能源需求价格弹性。若随着新能源成本驱动电力价格下降,能源需求量增加,出现所谓的回弹效应[11],则会拉高能源强度分子的增速。并且,当能源成本在总生产成本中所占份额很低时,企业可能会缺乏投资节能的动力[12]。综合以上两方面来看,虽然AI的能耗增长模式看似与信息技术类似,但并不能排除AI可能引发“粗放型”的能源消费模式,使得人类创造经济价值的能源效率降低。
以上是我们对AI的能耗增长逻辑的探讨,其主要目的不是给出具体答案,而是为我们接下来分析本轮我国AI的能耗问题做铺垫。
AI技术的应用创造了新的消费场景,通过新供给拉动新需求,直接带来电力消耗的增加。与AI相关的新需求场景广泛体现在消费类产业、金融业、制造业中。例如,在第五章《AI产业化第一拐点已过》中,我们探讨了AI在互联网、游戏、传媒、医疗服务、家电等多个消费产业中的应用潜力。这些应用场景的实质是AI创造了新的生产和服务方式,从而了培育新的市场需求,AI多元化应用需求也推动AI产业自身的能耗增长。
从AI在这些产业中的应用形式来看,不论是直接提供AI软件服务,还是提升硬件产品智能化水平,最后都会反映在推动AI性能提升和AI推理需求扩张,进而表现为AI训练环节和推理环节的用电增长。在AI软件服务方面,例如,游戏行业主要可以利用AI进行人物设计、游戏场景生成及画面字幕制作等,传媒行业可以应用AI进行内容创作,金融和医疗行业可以应用AI进行数据标准化处理和智能客服等。在硬件产品领域,智能家电是在传统家电的基础上集成了AI算法,通过增加传感器获取实时数据来进行智能决策,也相应地增加了边缘计算或是云端计算的推理能耗。而人形机器人等产品对智能化要求更高,对应需要更多维的数据、更强的算法和更大的算力支持,同样也会增加算力能耗。
AI大模型能耗本质上来自于算力耗能,算力能耗可以进一步分解为两大因素:一是算力规模,二是算力能效,估算AI产业自身的能耗因此需要具体分析这两个方面的变化。
算力规模方面,AI大模型主要在训练和推理两个环节消耗算力。不论是哪个环节,大模型的理论算力需求均与其自身的参数量和处理的数据量正相关[13]。然而,仅考虑推理和训练的理论算力需求并不足以全面反映实际的算力消耗量,还需要考虑模型在服务器运行时的算力利用率。
伴随AI大模型算法规模的扩张,网络通信带宽瓶颈和运行故障率成为了制约模型运行效率的两大因素[14]。从实际运行情况来看,大模型的算力利用率的确在下降。GPT-3训练一次需34天,使用1024张A100芯片,算力利用率44%-52%[15];GPT-4训练一次使用了约25,000张A100芯片,耗时90-100天,利用率降至32%-36%[16]。推理环节面临低成本与低延迟的权衡,为了实现高并发需求和低延迟输出,则需要增加冗余芯片数量,这反过来又会导致芯片算力利用率的降低。推理环节的算力利用率问题在GPT-4时代的万亿参数模型进一步凸显,GPT-4模型使用了混合专家(MoE)的模型架构,在这一架构下输入令牌长度的增加导致内存带宽成为瓶颈,需要使用更大的算力集群,进而导致算力利用率大幅降低[17]。
进一步,对应的AI大模型训练和推理能耗还需进一步考虑算力能效,即单位算力需要消耗的能耗。由此得到:
AI大模型由于其算法规模扩张对服务器计算能力和高吞吐量互联等方面的要求较高,其训练和推理通常由CPU搭载GPU、FPGA、ASIC等加速芯片组成的AI服务器来执行。智能算力正是反映AI服务器提供的计算能力,能够较好的反映由于AI大模型发展而带来的算力扩张[18]。
近期,考虑到智能算力规模扩张和算力能效提升的相对可预见性,可以自上而下地估算智算中心的用电量,以大致预测AI带来的智能算力增长对能耗的潜在影响,从而对AI技术发展导致的能耗增长趋势进行初步评估。据IDC测算,2023年中国智能算力预计达到427 EFLOPS(FP16算力等效,下述测算均基于FP16算力规模),其中训练算力占比约为60%[19]。
为了测算智能算力所需的能耗,需考虑算力增速和算力能效这两个重要假设。对于智能算力增速考虑两种情况,一是基准算力增速假设,根据信通院《数据中心白皮书2023》估算,未来五年中国智能算力复合增速超50%,我们以50%作为2022-2030年中国智算规模的基准增速;二是高算力增速假设,根据华为在2021年9月发布的报告《智能世界2030》中的估算,2030年全球智能算力将达到105 ZFLOPS,较2020年增长500倍,年均复合增速超过80%,我们假设中国算力规模与全球算力规模同比增长,以80%作为2022-2030年中国智算规模的乐观增速。
对于算力能效改进也考虑两种情况:一是算力能效弱改进,假设中国未来智能算力均由国产芯片供应,当前中国训练和推理算力能效均分别为目前国产先进芯片的峰值算力能效,并且2030年中国新增训练和推理算力能效达到目前世界先进智能算力能效水平(图表7.3);二是算力能效强改进,假设中国新增训练算力和推理算力能效均分别跟随世界最优算力能效水平改进。
基于上述假设,我们分别测算了以下四种情景下智算中心用电增长情况(图表7.4):基准算力增速+算力能效弱改进,基准算力增速+算力能效强改进,高算力增速+算力能效弱改进,高算力增速+算力能效强改进。具体来看,当前智能算力造成的全年电耗十分有限,在算力能效弱改进和强改进假设下,2023年智算中心用电规模估计值分别约170亿度电和130亿度电,对全社会用电规模造成的影响较小。在基准算力增速假设下,算力能效弱改进时2030年智算中心用电量会达到约1350亿度电,若能实现算力能效强改进,则2030年用电量仅约650亿度电。在乐观增速假设下,算力能效弱改进情景下,2030年智算中心用电量将高达4300亿度电,若能实现算力能效强改进,则2030年用电量约为2100亿度电。
上述四个情景下的分析表明,在基准算力增速下即便是算力能效改进幅度较小,未来带来的用电增量相对于我国全社会用电总量而言(2023年全社会用电量约为9.22万亿度),影响有限可能并不会造成电力短缺;但是在算力高速增长的情景下,算力能效改进变得十分关键,若算力能效改进幅度较小,将导致智算中心用电量大幅增长,占全社会用电量比重达到4.7%。
注:图中数据均使用服务器FP16计算精度下的峰值算力除以峰值功率,除华为昇腾910和寒武纪MLU370-X8外,均使用稀疏算力进行计算。
资料来源:华为官网,寒武纪官网,英伟达官网,中金研究院
注:PUE相关假设参考工信部关于新建数据中心PUE要求。根据IDC预测,假设中国新增智能算力中推理算力从2023年40%线性提升至2027年70%,2027年后这一比重维持在70%。
资料来源:中金研究院
由于AI大模型依赖于大规模集群算力,一个普遍的担忧是芯片集中部署带来的能耗功率增加可能对区域电网造成冲击。从国内已建成的大型智算中心看,上海临港商汤科技装配式数据中心作为亚洲最大的人工智能计算中心之一,其额定电力负荷约100MW[20],不到上海市近两年最大电力负荷的0.3%[21],整体冲击有限。即便考虑更大功耗的芯片使用,以集中部署10万张H100芯片为例,每张芯片的最大功率为700W,GPU总消耗功率达到70MW,进一步考虑整个服务器的功率消耗(以GH200为例,每个机柜配置16颗H100芯片,每个机柜的功率消耗约为30kW),则整个数据中心的总功率消耗将达到187.5MW,该功耗也不足一个50万吨小型电解铝工厂功耗的1/5,而根据目前国内电解铝行业60%配建自备电厂的方式,一台300MW的火电机组即可满足所有供电需求。对于未来可能出现的超大型数据中心,例如微软和OpenAI目前正在建设的名为“星际之门”(Stargate)的超级数据中心预计电力需求可能达到5000MW[22],也可以通过GW级的大型火电或水电自备电厂满足其供电需求。
相比于传统高耗电产业,以AI大模型为代表的新兴高电耗产业对绿电的需求往往更高。一方面,高科技企业为了提高企业形象和市场竞争力,往往更有意愿践行ESG责任,即在能源使用方面更倾向环境溢价更高的绿电,如全球加入RE100的430多家企业中,约55%为高科技企业[23]。另一方面,从具体实施方案看,数据中心类的高电耗产业主要通过加大自建与外购绿电比例、迁移至绿电保障能力更强的地区等方式实现高比例绿电供应。这方面,虽然同为数据中心产业大国,但中美有一定差异:美国电力需求基本稳定,近期在产业回流及AI等新兴产业迅速增长刺激下重拾增势,而其电网发展相对停滞,加之本身分布较分散且互济能力有限,电力设备存在老化失修等问题,网络阻塞较严重,通过大规模电网扩容提高供给程序繁琐、阻力较大,但美国电力市场及其金融衍生品市场相对发达,因此其数据中心主要通过购买绿电直接交易、签订再生能源购电协议(Power Purchase Agreement,PPA)、购买独立/非捆绑能源属性证书(Energy attribute certificates,EACs),以及自建分布式电源、甚至直接入股或收购核电等清洁能源供应商等方式提高绿电供应占比。如微软与全美最大独立核电运营商星座能源(Constellation Energy)合作,为其位于弗吉尼亚的数据中心供电,可解决其35%的电力供应,加上风光供电可基本实现100%零碳电力供应[24]。美国电力相关企业也在此番AI浪潮下受到资本市场追逐,Vistra、Constellation Energy、NRG Energy等发电或零售企业的股价在过去一年涨幅均超过1.5倍[25]。
在中国,电力需求随经济增长仍保持较快增长,因此整个电力系统仍在发展扩张期,且我国电网本身覆盖范围大、互济能力强,输配电设备较新,电网保障能力较强,因此数据中心等新兴的高电耗产业更倾向于向绿电资源丰富且电价相对较低的西部北部地区转移,如内蒙古、新疆、青海、云贵、川渝等。通过“公网电+自建新能源”的方式,可实现高比例绿电供给。如位于青海的中国电信(国家)数字青海绿色大数据中心,作为全国首个大数据中心领域源网荷储一体化绿电智慧供应系统示范样板,白天机柜主要采用自建太阳能、夜晚通过专用的储能放电,结合可溯源绿证的公网电,基本可达到100%绿电供应,同时利用网储互动进行消峰填谷,进一步降低运营成本[26]。未来,随着构网型UPS[27]、核能小堆(SMR)[28]等技术的日益成熟,核风光储等更多样的供电方式不仅可实现智算中心的电力供给保障,而且可根据数据中心负荷特性更灵活的组建虚拟电厂、参与电网需求响应或辅助服务市场,解决电耗焦虑的同时增加盈利。
从宏观层面看,我国也在积极优化“算力与电力”的投资布局,大力推进“东数西算”战略,即在西部北部绿电富集区,布局以AI训练、存储等高时延业务为主的数据中心;东中部围绕负荷中心,布局以AI推理、智能网联等低时延要求业务数据中心。按照本章“高算力增速+算力能效弱改进”情景下2030年智算中心用电量4300亿度电考虑,我们的测算表明,未来若一半的算力中心布局在西部北部地区,则智算中心可实现绿电消纳约2100亿度(约占当年绿电总消费4%),实现碳减排约1.7亿吨(占全国能源消费碳排放量近2%)。
(三)远期AI能耗增长:算力规模和能效的提升,哪个更快?
长期来看,AI大模型的能耗变化取决于算力能效的改进能否跟上算力规模的增长(图表7.5)。算力需求规模受到AI大模型自身发展趋势和用户需求的影响,算力能效在芯片、服务器和数据中心层面均有较大提升空间。
1、AI算力需求扩张逻辑
远期来看,
我们认为AI大模型算力扩张有两个逻辑:一是对于同一类型任务的模型性能提升而引致的模型扩张,例如进行文本生成的诸多大模型,算力需求将随着模型的迭代带来的参数量和训练数据集的增加而扩张。
基于Transformer架构下的规模定律(Scaling law)突破了以往模型规模扩大但性能提升趋于收敛的限制,呈现出模型规模扩大且损失度相应降低的特征,因而,以GPT为代表的AI大模型走向了以扩大参数规模和训练数据集规模为核心的“规模制胜”路线。例如,GPT-2的参数量为15亿,而GPT-3的参数量激增至1750亿,GPT-4更是达到了18万亿个参数[29]。在训练数据集方面,GPT-2使用了约40GB的文本数据,GPT-3则使用了高达753GB的文本数据,而GPT-4的训练数据集规模更是达到了40000GB[30]。简单对比,GPT-4的参数量是GPT-3的10倍,训练数据集的规模更是后者的53倍,因此,大模型在单次训练过程中的电耗呈现指数级增长,这也引发了人们对于未来AI模型能耗是否无限扩张的焦虑。
对于完成特定任务而言,我们认为,模型性能改进带动的算力需求规模增长可能是有限的,
这主要是由于可使用的训练数据集有限。有研究显示,用于大模型训练的高质量数据可能在不久的将来就被用尽[31]。训练数据集的有限性同样也意味着模型参数量不可能无限扩张,OpenAI开启的大模型时代是基于规模定律,GPT的成功也确实验证了模型扩张可以带来性能表现的突破,但根据第二章关于DeepMind提出的Hoffmann规模定律和OpenAI提出的Kaplan规模定律的讨论,可以明确规模定律发挥作用是基于模型参数量、数据集的共同扩张,尽管DeepMind和OpenAI提供的最优扩张比例不同,但是在给定训练数据集规模的情况下,参数量扩张带来的性能提升是收敛的[32],规模定律无法突破数据集有限性的约束。
二是由于处理的任务复杂度提升而带来的模型复杂度提升,导致算力需求扩张幅度进一步跃升。
先前的能耗对比仅关注了大语言模型的模型扩张和能耗增长,仍局限在单一任务下。本轮生成式AI接连突破了语言生成、图片生成和视频生成三种任务类型,任务复杂度的提升正是推动AI能耗快速增长的另一个关键因素。伴随任务复杂度的提升,可以观察到模型复杂度、训练数据集规模以及推理输入token规模均呈现出倍数增长。对比图片生成和文本生成,在训练数据集方面,Google基于Transformer架构可以进行图片生成的多模态大模型Gemini的训练数据集包含Youtube上93.6亿分钟的视频及字幕,总数据集大小约为GPT-4的两倍;在模型复杂度方面,尽管目前Google尚没有公布关于Gemini Ultra模型参数量的技术细节,但根据SemiAnalysis的估计,总体来看Gemini Ultra模型训练算力可能达到GPT-4的五倍[33]。以Sora为代表的视频生成大模型则进一步推升了训练和推理的算力需求,参考中金公司研究部报告《AI浪潮之巅系列:Sora,算力需求的“奇点”时刻》,Sora在训练阶段的理论算力需求大约是GPT-4的10倍,而在推理阶段的理论算力需求则大约是GPT-4的2000倍[34]。
针对任务复杂度增长趋势下,模型算力需求扩张而引致的能耗增长焦虑则需要重点关注(图表7.6)。
为了说明这一问题,我们基于当前的算力能效技术发展水平并基于中国市场进行一个定量测算,来说明从语言生成到视频生成能耗增长上限可能有多高。
首先,假如一个类似于GPT-4的语言大模型在从模型训练到在中国市场广泛应用会造成多少新增电耗?GPT-4单次训练时长约为95天,OpenAI从GPT-3.5迭代到GPT-4大概用了1年时间,一整年的时间足够GPT-4训练3.8次,那么仅这个模型的训练能耗可能达到50GWh*3.8=190GWh,如果考虑2019年至2023年推出的全部大模型数量约为100个[35],同时GPT-4是这近百个模型中训练能耗较高的。假设每个模型均训练了一年时间,那么可以大致推算出训练总能耗的上限约为100*190GWh=190亿度电。接下来,考虑GPT-4在中国全面应用造成的推理能耗,目前我国上网人数已经达到10.92亿人[36],假设每人每日搜索10次,则年耗电量为8.7W/次*10.92亿人*10次*365=346.8亿度电[37]。加总来看,总耗能536.8亿度电。这个电耗是什么水平呢?对比互联网和芯片企业,2022年谷歌和台积电分别消耗电力223亿度和224亿度;对比我国全社会用电量来看,2023年我国全年电力消费超过9.2万亿度,其中规模以上工业用电8.9万亿度[38],我们认为在可见范围内文本生成大模型的电耗还不足以引发能源危机。
假如一个类似于Sora的视频生成大模型,在中国市场广泛应用会造成多少新增电耗?Sora训练环节的理论算力需求为GPT-4的10倍,线性推算Sora的单次训练能耗大概是50GWh*10=50亿度电,目前尚不知道Sora训练阶段的具体技术细节,模型训练总能耗仍有待测算。考虑到训练用能仅仅是AI大模型推广的前期固定成本与用户需求规模无关,而推理环节则反映了AI大规模推广后的持续运营能耗,因而更值得关注的是潜在大规模应用后的推理耗电量。
下面分别考虑两个情景下的推理能耗。第一个应用情景,如果当前全网新增视频均使用AI生成,Sora生成1分钟长度清晰度为30帧的视频需要用电17.4kWh[39],2022年全网新增视频5.62亿小时[40],全部使用Sora生成则用电量将达到5867亿度电,约为全社会用电量的5%。第二个应用情景,考虑供给创造需求AI视频生成带来文生视频的全面应用,例如应用在小说行业中生成对应的视频内容,进而可能导致视频生成总量快速增长。对比来看,2022年我国电视剧制作发行仅160部、动画片发行331部,2023年国产影片总量971部[41],但小说数量远超当前的视频数量,以小说龙头企业为例,阅文集团2021年旗下作品达到1450万部,仅2021年全年新增120万部作品,新增字数超过360亿[42]。总结来看,文生视频的应用潜力远超文本生成类模型。
注:1)Sora为代表的视频生成模型能耗如何变化仍需要根据之后的模型技术细节披露来确定;2)图表中*越多代表对应指标的数值越大。
资料来源:中金研究院
值得注意的是,算力规模的扩张也取决于用户对性价比的要求。
与任何一种新技术和新产品进入市场一样,用户的需求一定会在性能与成本之间找到阶段性平衡。当性能水平满足绝大多数用户的使用要求之后,“以价换量”会成为AI开发的改进重点。因此,用户对“性价比”的需求也会限制AI模型算法规模的持续扩张,在实现规模定律可支撑的模型性能极限之前,提前达到增长上限。以GPT4模型迭代为例,OpenAI最新发布的GPT4o模型并没有大幅扩张训练数据集,但更多地追求更快速的响应、更低的运行成本[43]。
2、算力能效长期改进空间巨大
算力能效提升包括芯片、服务器优化和数据中心三个层面。
注:图中算力采用芯片FP16精度稀疏算力。
资料来源:英伟达官网,中金研究院
资料来源:中金公司研究部2022年3月报告《AI基础设施系列:东数西算蓄势待发,AI芯片有望受益》
芯片层面,GPU芯片技术的能效提升仍有空间。
GPU凭借高效的并行计算性能成为AI大算力时代的核心算力设施,过去十年中,英伟达通过不断优化芯片架构设计,实现了GPU算力和能效的显著提升,甚至提出了“黄氏定律”[44]。图表7.7展示了英伟达GPU算力能效的增长趋势,从P100到B100芯片,八年间的单位算力能耗平均每年下降了40%。为了直观展示GPU算力能效改进的效果,可以通过GPT-4训练能耗的优化来进行说明。OpenAI在进行GPT-4的预训练时,实际使用了25,000张A100芯片,服务器的总功耗达到了约20MW;如果采用H100芯片,所需芯片数量可以减少到8,000张,服务器的功耗相应降低到15MW;而如果使用最新的B200芯片,仅需2,000张芯片即可满足需求,服务器的功耗更是降至4MW[45]。这些数据表明,随着GPU技术的不断进步,AI大模型的能耗问题有望得到有效缓解。
GPU替代技术或能实现算力能效的大幅提升。
尽管目前通用GPU芯片是智能算力的核心部件,但由于GPU架构最初并非针对AI而设计,仍需进行取指令、指令译码、指令执行的过程,能耗水平较高。同时,高能耗水平也意味着对需要密集GPU集群进行训练和推理的数据中心,单GPU的高功耗叠加高密度导致硬件散热需要更多的冷却设备和相应的电费投入。目前,相关的替代芯片也逐渐受到市场重视,主要包括专用ASIC和灵活可编程FPGA芯片两类。在图表7.8中,可以看到FPGA和ASIC芯片的算力性能和能效都优于GPU芯片。从应用前景来看,FPGA芯片仍处在发展初期,还需要突破编程复杂、编译时间长、整体运算能力不高等瓶颈,而ASIC芯片由于面临较长的开发周期和较高的研发费用还存在高成本问题[46]。远期来看,光子芯片可能替代电子芯片带来算力能效的颠覆性改进。随着集成电路的不断发展,传统的电子集成电路在带宽与能耗等方面逐渐接近极限,而光子芯片则采用频率更高的光波来作为信息载体,相比于电子集成电路或电互联技术,光子集成电路与光互连展现出了更低的传输损耗、更宽的传输带宽、更小的时间延迟等特征。
资料来源:中兴通讯2022年11月发布的《液冷技术白皮书》,发改委、工信部等五部门2021年10月发布的《关于严格能效约束推动重点领域节能降碳的若干意见》,中金研究院
服务器层面,考虑制冷技术和通信架构优化两个方面的改进。
首先,在制冷技术方面,液冷成为大功耗算力部署下的关键冷却技术(图表7.9)。与普通服务器750W到1200W的标准功耗相比,AI服务器由于配置多个系统级芯片,在运行AI模型时会产生更多的能耗,以英伟达DGX H100服务器为例,其搭载8颗H100 80GB的 GPU,最大系统功耗达到10.2kW,英伟达推荐单机柜部署4个DGX H100服务器,对应功耗达到40.8kW。传统风冷技术既无法满足服务器硬件散热需求又存在制冷能效低的问题,图表7.9总结了各种冷却方式下的电力使用效率(Power Usage Effectiveness,简称PUE),传统风冷的PUE高达1.5,而采用液冷技术有望降至1.05。其次,服务器网络通信优化也是改善算力利用率减少能耗的关键。前文提到通信带宽制约算力效率是导致GPT-4算力利用率低的一大因素,这也造成了能源的浪费,因而如何改善存算效率十分重要。以NVIDIA H100服务器为例,PCIe 5.0总线只能提供128GB/s的带宽,而NVIDIA H100服务器内部采用异构网络架构,借助NVLink和NVSwitch技术绕开PCle限制,可以实现在服务器内部和服务器之间实现多对多GPU通信,NV Link 4.0最高速率达900 GB/s,支持在节点间拓展、创建高带宽的多节点GPU集群,显著提升集群性能。
数据中心层面,通过优化地理布局和设备能源管理来改善数据中心整体能效。
在地理布局方面,“东数西算”战略可以帮助数据中心充分利用西部低气温条件来降低数据中心综合PUE,并且由于我国约61%的可再生能源分布在西部北部地区,但本地负荷仅为35%,可以通过优化数据中心的空间布局来保障数据中心能源供给的同时就近消纳西部绿色能源。在设备能源管理方面,一是进行数据中心负载管理,从而提高设备运行效率。通过负载管理,数据中心可以确保所有设备都在其最高效的工作点运行,例如,CPU在中等负载下通常比在低负载或过载下更节能。二是通过监测设备运行负载,进行硬件电源开关优化决策,避免不需要的闲置容量和能源浪费。三是,建立实施能源回收系统,如利用服务器产生的热量进行供暖或其他用途。
数字化、智能化技术赋能终端用能部门提高用能效率并非一个新话题,AI技术的应用也不例外。这类技术提高能效主要有两条路径:一是提高单个设备的运行,二是优化技术系统的运行流程。
制造业可以根据生产流程特征划分为流程型制造业和离散型制造业两类,AI针对这两类制造业的能效优化侧重点不同。其中,流程型制造业是以资源和可回收资源为原料,通过物理变化和化学反应的连续复杂生产,为制造业提供原材料和能源的基础工业,包括石化、化工、造纸、水泥、有色、钢铁、制药等行业,而离散型制造业指离散工业是指以离散单位(如产品、零件)为基础的生产方式,往往由多个零件经过一系列并不连续的工序的加工最终装配而成,典型的离散工业包括机械制造、汽车制造和电子设备制造等行业。挖掘前者的能效提升空间主要在于优化生产流程,而提升后者的生产能效主要是依靠提高生产设备的综合效率(Overall Equipment Effectiveness,简称OEE[47])。
对于离散制造,AI提升生产设备的综合效率主要有两种方式:一是通过优化排产计划来减少物料等待时间和提升有效产量,减少生产过程中由于单个节点流动限制造成的瓶颈。例如,AI应用到汽车涂装产线中,可以根据历史排产信息和能耗数据进行分析建模,基于不同生产介质、不同生产计划、不同生产班次以及车间之间来料供给的级联信息,来优化未来的排班排产计划。二是,AI技术可以应用于设备维护预测。设备故障导致能源耗损及生产停滞会造成能源浪费,将工业智能算法和模型与厂务系统的大数据分析相结合,通过分析设备运行数据,对设备状况进行能耗与健康状态的预测与诊断,可以降低因设备衰退、故障造成的能源浪费。
对于流程制造,生产流程的优化具体需要AI解决如下挑战:生产运行数据测量难,运行状态建模难,智能控制和优化决策难。比如,原料变化频繁,生产过程涉及物理化学反应,机理复杂;生产过程连续,不能停顿,任一工序出现问题必然会影响整个生产线和最终的产品质量;部分产业的原料成分、设备状态、工艺参数和产品质量等无法实时或全面检测。AI可以从两个维度帮助实现流程工业的提升能效。一是更好地处理流程制造过程中产生的非结构化数据,提升系统故障识别和辅助决策能力。现有的系统难以自动化处理非结构数据,难以支撑复杂的知识自动化软件平台,给辅助操作工人决策带来挑战,AI的应用在推动实现控制-优化-决策一体化[48]等方面可以发挥作用。二是实现多模块的复杂决策。流程工业的工艺生产系统多参数、多变量、变量间相互干扰大,因此对先进控制和闭环的实时优化的需求较大,而AI则能够在处理复杂系统优化决策方面具有更强的能力。
以钢铁制造为例,宝武“黑灯工厂”通过智能化改造实现了工艺流程的整体优化。包括基于人工智能的视觉检测,让检测效率提升了70%;基于数字孪生,用人工智能技术构建一个“钢铁工业大脑”实现智能生产[49]。总的来看,智能化改造使得这座工厂综合污染物吨钢下降30%,生产效率提升30%,产能提升20%,吨钢能耗下降15%,加工成本下降10%[50]。施耐德电气的APC(Advanced Process Control)先进过程控制也是一个很好的案例。APC先进过程控制集成了AI和大数据分析的先进算法,将传统的单值控制转变为更为灵活的区域控制,能够基于当前的控制状态,预测未来的生产运行情况,从而实现提前预判和控制变量的及时调整。通过实时、在线的优化,APC系统能够精准定位设备的最优工作状态及其相应的生产参数,充分挖掘设备的潜力,实现闭环控制。这种智能化的控制方式,使得操作人员能够更加高效地进行操作,不仅降低了能耗,还提升了产品的质量和生产效率,同时减轻了操作人员的劳动强度。以一个年产320万吨熟料的水泥生产线为例,在引入APC系统后,该生产线的熟料标煤耗量下降1.87%[51]。
此外,AI还可以与工业互联网结合,建立智慧能源管理系统,统一调控厂区的所有用能和供能设备。综合各类用能设备的运行数据,可分析确定企业经营生产的高耗能、高碳排环节,并提供智能科学的优化建议。同时,结合可再生能源发电功率预测结果,以安全性和经济性为目标,制定工厂内部及厂区范围的多能源协同策略,保证多种能量来源之间的平滑切换,实现用能设备运行于最优效率区间和绿色低碳生产。
AI提高建筑能效主要是通过建筑能源管理体系的优化来实现。维持室内环境的稳定,确保建筑使用者一定水平的舒适度是传统建筑设备控制系统的首要目标,而非能源管理。因此,建筑用能设备通常采用静态控制以便维持稳定运行,确保建筑内环境的稳定性。这种控制方式在一定程度上牺牲了用能效率。因为,建筑的能耗与外界气候环境和建筑内的活动都有关系,如果完全追求室内舒适度的稳定性,将带来额外的能耗损失。更加智能的建筑能源管理体系,可以通过更精准的预测和更精准的控制,使得建筑设备兼顾能效和舒适度双重目标。然而,实现建筑能源管理系统的智能控制会面临诸多挑战,包括用能设备类型多、功能和性能差异大,建筑内的可调节资源(如照明、空调、电梯等)分布在不同的区域,用户行为的不确定性高等。另外,建筑能源系统是一个复杂的、高度耦合的有机系统,存在数据孤岛和局部反馈控制的瓶颈,难以实现全局优化和控制。
AI可以通过精细化监控和预测从而赋能建筑节能。AI算法可以收集和分析建筑的能源消耗数据、环境数据和运行数据,筛选出对能源消耗有显著影响的关键特征,并进行可视化分析,从而训练出最优的算法模型应用于能源管理。当AI算法中台与物联网设备相连接,可以实时获取信息并进行智能决策控制,实现节能降碳的效果。同时,AI系统能够对设备运行状态进行实时监测,快速定位故障并进行预测性维护,提升设备运维响应速度。总结下来,AI技术可以根据时间、空间和用户特征三个维度进行建筑能耗管理系统的设计,实现精细化节能管控,从而提升建筑能效。大量文献也支撑了AI算法在建筑节能中的应用潜力,例如利用机器学习算法可以帮助建筑物能源成本节省35%、供暖、通风、空调设备节能25%、人工照明系统节能50%[52]。
我国也有AI技术应用于建筑节能的实践。例如,施耐德与某大型地产企业合作,利用机器学习算法为建筑能源管理提供优化方案。具体而言,包括以下三方面的能效改进:一是,进行建筑物内部冷热负荷预测,根据历史数据,构建多种时间相关序列模型,选出结果最优模型以供应用;二是,冷站启停策略优化,根据未来冷负荷预测数据,应用运筹优化等算法,求解最有空调开关策略;三是,海水泵群控策略,根据对未来散热负荷侧预测数据,求解最优海水泵房开机策略。目前这种AI算法优化策略已经应用在中国大陆和中国香港的9个物业管理中,累计部署23944个表计和网关,自2019年这一项目实施开始,已经实现用电费累计节省9.5%[53]。
除了赋能传统建筑物精细化能源管理以外,AI在BIPV(光伏建筑一体化)和被动式建筑等新型绿色建筑运营管理中有广阔的应用前景。一方面,AI可以赋能BIM(建筑信息模型)辅助新型绿色建筑的节能设计[54]。人工智能可以直接参与建筑物立面、开窗、屋顶等设计[55],具体而言,可以通过以下几方面设计来直接优化建筑物整体能耗:一是无热桥设计,通过结构设计避免热桥效应,即防止热量通过建筑结构的某些部分快速传递;二是进行高效的窗户和外门设计,使用多层玻璃窗户和高效外门,以减少热量流失并提高隔音效果;三是优化建筑物自然通风设计;四是设计紧凑的建筑形态,减少外围结构的表面积,从而降低热量的流失;五是优化遮阳设计,通过遮阳设施减少夏季过热,同时在冬季允许阳光进入以提供自然光照和热量。另一方面,AI优化BIPV绿色建筑光伏系统的设计和运营[56]。在光伏系统设计方面,AI可以辅助设计师进行光伏系统的布局和设计,通过分析建筑结构、日照情况、能源需求等因素,优化光伏板的放置和配置;在建筑物光伏供能管理方面,利用AI算法基于天气信息可以预测光伏系统的发电功率,并与能源管理系统结合实现更准确的能源规划和管理[57]。例如,广联达发布了建筑行业 AI 大模型 AecGPT,基于一站式AI原生应用开发平台(广联达行业AI平台),该大模型具有320亿参数量和亿级的Tokens行业知识增强,覆盖建筑行业规划、设计、交易、成本、施工、运维及综合管理等7个领域20个细分专业知识领域[58]。
从单车用能来看,自动驾驶功能的引入使得高电耗软硬件、车重和风阻的增加或推高能耗。自动驾驶汽车为实现其可替代人的感知、规划控制和执行功能,需要依靠各类高耗能软硬件增强自身性能。一方面,以多组激光雷达、毫米波雷达、摄像头为代表的感知解决方案,以高算力芯片、域控制器融合为代表的规划控制方案,以线控底盘、轮边电机为代表的电控执行方案,这些都是耗电量较高的软硬件设备,随着自动驾驶智能需求等级提升而不断增加的相关设备必然增加汽车整体的电耗水平。另一方面,为保证自动驾驶汽车的功能安全(Functional Safety,FS)和预期功能安全(Safety Of The Intended Functionality,SOTIF),自动驾驶汽车需要在硬件和算法上进行相应的冗余设计和备份处理,这也将提高自驾汽车的电耗;同时,激光雷达等高耗能设备的加装以及冗余备份设计,会带来车身增重和风阻提升,从而进一步增加单车自驾电耗。
以L5级自动驾驶为例,单车实现L5级自动驾驶需要1500TOPS以上的算力支持,按照当前可支持的主流车规级SoC芯片能耗3-5TOPS/W测算,仅算力功耗就至少需要约0.3-0.5kW[59]。根据特斯拉、福特、Waymo等多款车型数据,电脑及算力功耗仅占全部功耗的41%[60](图表7.10),则L5级自驾系统带来的额外功耗将达到0.75-1.25kW,若按照速度50km/h的百公里电耗15kWh考虑,其百公里电耗将达到1.5-2.5度,相当于提升整体电耗约10%-16.7%。当然,单车自驾系统也可以通过减少刹车等控制手段实现一定程度节能效应,根据清华大学等机构研究[61],相较于熟练驾驶员单车节能效应约5%-9%,但显然这部分动力能耗的降低不足以抵消自驾系统本身的能耗增加,总体看单车自动驾驶仍将带来1%-10%能耗增加(图表7.11)。
图表7.10:2018年福特自动驾驶系统各组件能耗占比
资料来源:Gawron, et al., Life Cycle Assessment of Connected and Automated Vehicles (CAVs): Sensing and Computing Subsystem and Vehicle Level Effects, February 2018,中金研究院
图表7.11:2022年不同情景下自动驾驶能耗模拟对比
资料来源:Xiaobo Qu, et al., Automation and connectivity of electric vehicles: Energy boon or bane, August 2022.,中金研究院
从系统用能来看,V2X智能互联可有效降低自动驾驶整体能耗。自动驾驶的节能效应还需要系统层面的优化协作得以体现,且呈现出明显的规模效应,即接入自动驾驶交通系统的车、路、云基础设施越多,节能效益越明显。根据相关研究测算[62],考虑不同情景下的V2X互联协作方案(车与车、车与基础设施、中央控制等),实现多车系统优化,自动驾驶可进一步节约动力能耗25%-30%。即便考虑自驾系统自身能耗,系统优化后的自驾交通综合节能效率将达到10%-20%。
虽然AI应用会增加能源消耗,甚至在部分地区、部分时段带来能耗焦虑,但从供给环节看,无论是全球还是我国,无论是潜在的资源量、还是当前已有的发电量,丰富的绿电资源均可以完全覆盖AI或者数据中心可能带来的能耗焦虑。然而,电力作为一种尚不具备大规模储存、需要实时平衡的特殊能源,尤其对于以风电、光伏发电为代表的不稳定的绿色电力,其保障稳定供给的关键,是建立一个坚强智能的电力系统。
事实上,对于电力系统的数字化、智能化改造一直在进行,尤其是近些年随着AI技术的再次兴起,相关的电力改造项目也呈现出快速增长的态势。根据BNEF追踪统计[63],近3年的电力领域的智能化改造项目年均增长率达到32%,尤其是2023年,AI相关的电力项目是2022年的两倍。然而,当前电力系统的智能化建设仍以数字化改造和传统AI技术应用为主,以深度学习和生成式AI为代表的先进AI项目总体上占比较少。向后看,随着以大语言模型为代表的先进人工智能技术加速迭代,电力系统在源网荷储各个环节积累的海量状态监测、规程经验、控制记录等多源异构化数据有望被进一步唤醒,叠加更加先进智能的学习算法高效赋能,助力打造形成更加智能坚强的数智化电力系统,提升绿电消纳能力、促进绿电发展(图表7.12)。
资料来源:刘吉臻等《支撑新型电力系统建设的电力智能化发展路径》(《能源科技》2022年第4期),中金研究院
利用AI提高新能源发电能力主要体现在两方面:一是通过AI大模型提升新能源发电功率预测精度,从而增加新能源出力的稳定性和可靠性;二是通过AI智能设计优化风光发电厂的布局,从而提高整体发电效率。
在新能源出力预测方面,过去主要通过物理模型、统计模型和数值天气预报等方法,这些方法在环境条件相对稳定下,可以实现未来4小时到一天内的准确率达到75%以上[64]。然而,这些方法在不同时间尺度下均存在短板:在短时间尺度上(分钟~小时),传统方法对于极端天气等小概率天气事件的快速变化而产生的大量数据难以高效处理,导致预测偏差较大;在长时间尺度上(跨季~跨年),传统方法也较难以克服误差累积导致的预测精度下降等难题。
人工智能(AI)的引入及其快速发展改变了这一局面,尤其是大模型的应用,在短时间预测中,强大的实时数据处理能力,尤其是捕捉非线性、复杂关系的能力,可以更好地应对复杂环境变化从而提高预测精度;在长时间尺度的预测中,AI可以通过持续学习和自我优化来提高其预测能力,即随着时间的推移,可以滚动修正预测结果,这就弥补了原来预测方法中误差会随时间叠加的缺陷,从而提高其预测精度。以大地量子公司的新能源智能管理平台为例,作为一家专注于新能源发电功率预测的数字技术研发公司,其最新研发的基于AI预测的气象模型Simba,预报效率是传统模式计算的50000倍,短时日内功率预测精度可到90%以上、小时级别预测精度可到95%以上;在周级别的气象要素预报测试中,预报精度也已超越欧洲中期天气预报中心(ECMWF)的高分辨率预报模型(HRES)和美国国家海洋和大气管理局(NOAA)的全球预报系统(GFS),达到世界一流水准[65]。
在提高发电功率方面,尤其是克服风电场尾流效应影响方面,AI效果显著。风电场的尾流效应是指当风流经一个风力涡轮机后,其下游的风速会减弱,从而影响下游其他涡轮机的发电效率。为了克服尾流效应,传统方法包括优化风电场的布局、采用更高效的涡轮机设计等,这些方法虽然在一定程度上减少了尾流效应,但仍然受限于对复杂流场行为的理解和预测能力。近期,美国国家可再生能源实验室提出了一种利用图神经网络(GNN)的工厂级优化方法,并评估了美国6800多个陆上风电地点的土地节约和尾流转向的经济效益。模型可动态调整风力涡轮机叶片桨距角和涡轮机偏航角,从而通过优化风机的动态运行提高风机的生产效率,同时可缩短原来风机间受尾流效应影响不得不保证的安全间距,使每个风电场的土地需求平均减少18%(范围2%-34%),美国国家可再生能源实验室预计这一方法可帮助风电场年收入增加370万美元(每MW年均增加1.3万美元)[66]。
(二)电网侧:AI多模态识别及动态功率优化提升电网安全可靠性
电网的智能化应用主要体现在智能监控、辅助决策、智能检修及运维等方面。其中,智能检修运维应用相对成熟且较为广泛。传统电网管理模式主要停留在状态监测水平,即以响应式和计划性维护为主,通常只能在故障发生后发出警报,提示故障位置,对于预测潜在故障源和分析故障原因的能力较弱,因此无法提供有效的检修维护策略。
随着无人机和自动机器人等技术的迅速发展,自动巡检设备搭载前端AI应用,可以实现多地域、跨区域的实时巡检与快速定位维修,增大电网巡检范围,大幅提升巡检能力和效率。同时,其搭载的智能传感装置数据获取能力大幅提升,不仅可以通过AI除雾或夜视功能增强低可视条件下的状态监测,而且通过红外识别、噪声识别等技术获取传统手段“看不见”的数据,电网的感知能力大幅度提升。在此基础上叠加AI大模型可以高效地处理和学习此类传统方法无法利用的非结构性数据,从而建立先进的设备缺陷及检维修记录的学习模型,识别电网运行中潜在的缺陷和危险。例如,国网山东电力公司联合中国科学院开发的“基于无人机前端AI自适应巡检技术”实现了黄河沿线1315米的1000千伏输电导线的精细化巡检,自动识别电网缺陷,缺陷发现率约80%,巡检效率提高了8倍以上[67]。结合快速发展的边缘计算技术,在无人机上部署先进的AI算法,在数据产生的地点对输电线路的自动和高精度检查。这种技术的引入不仅提高了巡检的效率和缺陷识别的准确性,还减少了对人工巡检的依赖,降低了巡检成本和风险。AI模型还可基于红外、温度、水浸、噪声等多维智能感知与识别技术,实现电力设备运行状态的实时诊断。国网电力空间技术有限公司联合华北电力大学等单位基于“最小化标注+阶梯式学习+干扰点屏蔽”等方法研发了输电线路红外缺陷智能识别系统,实现了红外缺陷隐患的智能识别,模型识别准确率达到了90%以上,大大弥补了人眼检测的缺陷并提升了检测效率和精准度[68]。
此外,基于AI技术的输电线路动态评估(DLR)也可有效提升电网的输电容量。DLR是通过实时监测输电线路的状态(如温度、张力、弧垂等)和环境条件(如环境温度、日照和风速等),基于摩尔根公式对线路安全负载进行计算,在确保输送电力的安全前提下,尽可能提升线路的载流量从而实现线路输电容量的最大化利用[69]。然而,考虑一定安全裕度现有大部分输电线路尚未发挥最大潜力,通过AI模型可以更精确监控并预测线路及其周围环境数据,并利用专业模型快速评估及调整电网输电状态,从而最大限度提高输电线路容量[70]。爱沙尼亚的Grid Raven公司开发了基于DLR技术的电网数字孪生AI预测技术,风力预测比国家预报准确40%,可更为可靠地增加电网容量,可将电网输电能力提高30%[71]。
随着电动汽车、储能、分布式新能源等新型负荷的大规模广泛接入,系统内部的运行特征发生了较大变化,使得电力系统对负荷侧资源的管理越来越重视。然而,负荷侧资源类型繁杂、分布分散、运行状态随机,且易受天气等随机事件影响,想要有效控制负荷侧资源并非易事,甚至不少地区存在管理“盲区”。传统的管理模式虽然已经开始利用数字化手段,但主要依赖于结构化数据和标注信息,对于非结构化数据的处理能力不足,特别是对于具有非线性和高度随机性的负荷资源,传统数学建模方法难以实现精确控制。因此,需要更智能的技术来应对这些挑战。
电力系统已经安装了大量智能电表、传感器和监测设备,具备较好的数字化基础。通过AI大模型强大的预判推理不仅可以进一步提升负荷预测精度,而且针对更加泛化的用户行为进行聚类分析,创建不同用户群体的用电特性画像,在不影响用户用电习惯的情况下,提供个性化的用电指导。基于这些分析建立AI驱动的智慧能源单元,可以更好实现分散负荷资源的优化整合。例如,通过虚拟电厂技术,将分散的能源资源(如家庭太阳能、风能、储能等)整合为一个可调控的整体,利用能源管理系统(EMS)来调控电动汽车的充放电过程,实现电力负荷、EV、分布式新能源等“盲区资源”的柔性调控[72]。
另外,借助AI在局部配电网或微电网实现负荷侧资源优化利用的经验,可进一步发展基于AI专用模型的多要素数据驱动微电网运行自适应和自寻优模型,实现有限节点的快速寻优。国网电力科学研究院应用了人工智能中的Attention-LSTM算法,有效增强了电压控制的自适应性和优化能力。研究结果显示,在相同条件下,采用此AI算法可以将电压偏差有效控制在较小的数量级范围之内,相应减少变压器和电容器的总调整操作次数,比传统方法分别减少了8.16%和11.26%。这不仅提高了电网的安全性和区域电网的运行效率,而且有效延长了变压器和电容器的使用寿命,提升了整个电力系统的经济性[73]。同时,小范围的区域资源优化调控也为下一步基于AI的大电网智能调度辅助决策提供了参考基础。
本章的前面几节分析了AI大模型自身能耗会快速增长,这显然不利于我国绿色转型;但与此同时,我们也发现AI的应用在提高用能部门的能效、助力绿电的发展这两个方面有助于我国绿色转型。这样的“一增二减”使我们很难综合判断AI对我国绿色转型的影响。此外,从更大范围的经济系统来看,AI的发展还会对能源使用和供给产生外溢效益,从而影响绿色转型。例如,AI应用可能会引发所谓的“回弹效应”,即虽然单位能耗有所下降,但由于技术进步带来经济活动的扩张,总体能源消耗量仍然呈现增加的态势。并且,单一部门的产出增长也会带动上下游产业发展,从而带来更多的能源消费。再比如,AI的发展可能创造新的消费模式,并引发全社会用能和碳排放的增减。例如,自动驾驶技术的广泛应用,一方面可能会使人们减少公共交通出行,增加碳排放;但另一方面,也可能使人们购车需求减少,带来汽车制造产量的减少,从而降低汽车及其上游制造业的碳排放。当考虑这些更为复杂的外溢效应时,分析AI对绿色转型的影响则变得更为困难。
可计算一般均衡模型(Computable General Equilibrium,CGE)是基于一般均衡理论、产业结构关系以及投入产出数据构建的量化模拟系统,可以从系统性的角度测算外部冲击对宏观经济及行业的影响,分析经济和环境变动情况。因此,我们尝试构建了AI-CGE模型[74],以量化AI对中国绿色转型的整体影响[75]。为检验本章第二节和第三节中介绍的AI节能应用和促进绿电发展两大减碳路径的效果,我们设置了以下三种模拟情境:(1)基准情景(BAU):无AI应用,经济增长参考中金宏观团队基于“2035年实现经济总量或人均收入翻一番”进行的预测[76],根据“2030年碳强度比2005年下降65%”的目标外生给定碳排放约束路径。(2)AI应用情景(S1):根据第三章中元任务模型得到的AI在各类元任务上的成本降速和各行业人工智能融合程度进行冲击。(3)AI节能情景(S2):在S1情景的基础上,参考本章第二节AI在制造业、建筑和交通领域的应用表现,冲击相关领域的能源技术进步系数,设定AI应用使制造业领域节能10-20%,建筑、交通领域节能10-15%[77]。基于对这三种情景的分析,我们试图从AI带来的能耗总量和碳排放总量,以及能耗强度与碳强度这两个维度来探究AI对我国绿色转型的影响。
我们使用CGE模型进行模拟的结果表明,AI的应用会导致我国总能耗上升,具体而言,到2030年,能耗将相较于无AI应用的情景增加约2.8亿吨标准煤(见图表7.13)。其中,因AI应用带来的全社会用电量将达到约8000亿千瓦时。需要强调的是,AI带来的全社会用电量包括AI技术本身带来的电力需求增长,以及AI应用带来的技术进步引发其他相关产业的扩张所带来的电力需求增长。此外,CGE模拟结果也表明如果AI能够在制造业、建筑和交通等用能部门用于能效提升,将抵消掉约2亿吨标准煤的能耗增长(如图表7.13所示,节能情景相较于AI应用情景的节能量)。
图表7.13:AI应用拉动全社会能源消费增长,其中用电量的上涨最为明显
注:AI应用情景(S1)能耗变动是相比于基准情况,AI节能情景(S2)能耗变动是相比于AI应用情景(S1)。
资料来源:中金研究院
图表7.14:AI或将造成碳排放增加,但叠加绿电消纳可以有效减少碳排放
注:AI应用情景(S1)碳排变动是相比于基准情况,AI节能情景(S2)碳排变动是相比于AI应用情景(S1)。
资料来源:中金研究院
在碳排放方面,如图表7.14所示,根据我们的CGE模型测算,到2030年,由AI应用带来的碳排放将会比基准情景增加了2.2亿吨碳排放。如前述的讨论,AI可以通过提高用能部门能效和赋能绿电发展两个方面抵消自身发展带来的碳排放。根据我们的测算,AI通过提高用能部门效率可以贡献1.3亿吨的减排量(如图表7.14所示,节能情景相较于AI应用情景的减排量)。但即便如此,届时的碳排放总量相较于无AI应用情景仍将增加0.9亿吨。若想尽可能抵消因AI应用增加的碳排放,甚至释放更多的减排空间,则需要加大发展绿电的力度。假设我国到2030年能够实现非化石能源发电占总发电量50%的政策目标[78],这意味着如要保证AI至少不带来新增碳排放,由于AI应用带来的8000亿度新增电量中还有一半的用电量需要由绿电供应,即约4000亿度电。假设现有装机的使用率保持不变,考虑到新能源装机的年均增速,我们认为这部分用电量需要通过进一步发展新能源装机规模来实现。具体而言,按照基准情景预估的装机节奏,我们估算到2030年累计新能源装机量将达到24亿千瓦,在这个基础上若实现AI新增电耗全部被绿电覆盖,需要额外累计新增2.6亿千瓦新能源装机。