正式报名 | 人工智能治理专家认证CAIGP™课程
以ChatGPT为代表的AI大模型在给人类社会带来巨大变革的同时,也需要耗费大量的能源和水资源。以黄仁勋、马斯克和奥特曼为代表的科技大佬们已经预警AI行业正在面临能源危机。
来源
| 数据观综合(转载请注明来源)
近日,AI芯片龙头英伟达的创始人兼CEO黄仁勋表示,AI的未来发展与状态和储能紧密相连。他强调:“不应仅仅关注计算力,而是需要更全面地考虑能源消耗问题。AI的尽头是光伏和储能。我们不能只想着算力,如果只考虑计算机,我们需要烧掉14个地球的能源。
”
同时,近期OpenAl的创始人山姆·奥特曼也提出了类似的看法。他认为:“未来AI技术的发展将高度依赖于能源,特别是光伏和储能技术的进步。未来AI的技术取决于能源,我们需要更多的光伏和储能。
”
在OpenAI训练的AI聊天机器人ChatGPT大火之后,谷歌、Meta等科技巨头们加大了在生成式人工智能研发和应用领域的投入,这也给诸多领域带来了新的发展机遇,尤其是提供算力支持的芯片,英伟达H100、A100等供不应求,大幅推升了他们的营收和利润。
不过,生成式人工智能研发和应用的热潮,也有不利的一面,例如对电力的消耗
。
据《纽约客》杂志报道
,ChatGPT每天需要处理约2亿次请求,日耗电量超过了50万千瓦时。
报道中指出,根据2022年的数据,美国家庭的日均用电量是29千瓦时。
50万千瓦时就已能满足17241个美国家庭一天的用电需求,是47个美国家庭一年的用电量。
如果将ChatGPT等生成式人工
智能技术整合到热门的应用中,电力需求就将更大。
根据发表在《焦耳》杂志上的一项研究表明,人工智能对环境的影响可能比之前认为的要大。研究发现,人工智能每年最终消耗的能源与荷兰、瑞典等国家一样大,甚至更多,可能会破坏全球减少碳排放的努力。
这篇论文的作者——阿姆斯特丹自由大学商业与经济学院的博士候选人德弗里斯(Alex de Vries)表示,基于技术的发展速度,这可能在短短几年内实现。
德弗里斯在他的研究中解释道,像ChatGPT这样的大型语言模型(LLM)需要大量的数据集来训练人工智能。他称,“如果你要花费大量资源,建立这些真正的大型模型,并尝试运营一段时间,那将是潜在的巨大能源浪费。”
AI
模型经过训练阶段后,会过渡到推理阶段,然后根据新的输入生成信息。而推理阶段消耗的能源似乎更多。
研究公司SemiAnalysis表示,OpenAI公司需要3617台英伟达的HGX A100服务器,总共28936个图形处理单元(GPU)来支持ChatGPT,这意味着每天的能源需求就要达到564兆瓦时,这要比训练阶段的能源需求高得多。
德弗里斯还指出,谷歌报告显示,从2019年到2021年,其与
AI
相关的能源消耗中有60%来自所谓的生成推理阶段。
过去的工作常常关注的是
AI
训练所消耗的能量,但德弗里斯提醒道,需要有更多的工作来考虑
AI
的整个生命周期。
该研究论文指出,随着
AI
产品的广泛使用以及被更多公司采用,对
AI
芯片的需求正在上升。
英伟达生产的GPU芯片作为人工智能领域的命脉,该公司在2023年第二季度的收入为135亿美元,其数据中心业务较上一季度增长了141%,这一点足以证明人工智能产品需求的迅速增长。
德弗里斯告诉媒体:“考虑到未来几年的预期产量,到2027年,新制造的
AI
设备的用电量将与荷兰一样多,这也与瑞典、阿根廷等国的用电量处于同一范围。”
德弗里斯还承认:“最坏的情况就是,仅谷歌一家公司的
AI
就可以消耗与爱尔兰等国家一样多的电力。”
德弗里斯在论文中设想,如果将生成式人工智能集成到谷歌的每一个搜索中,那么届时谷歌就会大幅增加对电力的需求。
SemiAnalysis估计,在每个谷歌搜索中实现类似ChatGPT的AI,将需要51.28万个英伟达A100 HGX服务器,总计410.26万个GPU,每台服务器的电力需求为6.5千瓦,这将相当于每天80吉瓦时的电力消耗和每年29.2太瓦时的电力消耗。
另一家研究机构New Street Research也得出了类似的估计,认为谷歌将需要大约40万台服务器,这将导致每天消耗62.4吉瓦时,每年消耗22.8太瓦时的能源。
不过,《纽约客》杂志在报道中也提到,由于在推进
AI
研发及应用的科技巨头们,并未披露电力消耗方面的数据,因而计算
AI
总的耗电量并不容易。
亚历克斯·德弗里斯
也是基于英伟达公开的数据,给出相关的预期的。
但无论
AI
领域的电力需求是否容易计算,这一领域的电力消耗在大幅增加都是不争的事实。而随着
AI
的发展,对电力的需求预计还将持续增加。
今年2月底,在“博世互联世界2024”大会上,马斯克最新采访表示:
芯片短缺的情况可能已经过去,但
AI
和电动汽车正在以如此迅猛的速度扩张,明年全球将面临电力和变压器供应紧张的问题。
回想去年此时,在一轮由ChatGPT掀起的大模型创业潮里,AI芯片成了抢手货,其中GPU最为明显。
马斯克指出:“就我目力所及,我从未见过任何技术能比
AI
计算能力的发展更快,
AI
上线的算力似乎每6个月就会增加10倍。显然,这种情况不可能永远以如此高的速度持续下去,否则会超过宇宙的质量,但我从未见过任何类似的事情。这就是为什么Nvidia市值如此巨大的原因,因为他们目前拥有最好的神经网络芯片。淘“芯”热远远超过历史上所有的淘金热。”
马斯克同时指出:“
AI
算力的限制是可以预见的,事实上我在一年多前就预测到了这一点——一年多前的芯片短缺,神经网络芯片。然后,很容易预测,下一个短缺将是降压变压器(voltage stepdown transformers)。如果你从电力公司获得 100-300 千伏的电力,而它必须一直降压到 6 伏,这就是一个很大的降压过程。”
随后,他警告称:“那么,接下来短缺的将是电力。我认为明年,没有足够的电力来运行所有的芯片。电动汽车和人工智能的同步增长,两者都需要电力,都需要变压器——我认为,正在创造对电气设备和发电的巨大需求。”
值得注意的是,这已经不是马斯克第一次试图引起业界对于缺电危机的更大关注。
去年以来,马斯克已经多次在各个场合预警可能即将到来的电力短缺。当地时间7月14日,马斯克在xAI公司会议上预测,未来两年将经历从硅料短缺到电压器短缺,再到电力短缺,单位能源有效计算量会是最重要指标。
7月底,马斯克在太平洋瓦电公司PG&E主办的创新峰会上重申,美国2年内将爆发大缺电,到2045年美国的电力消耗将增加2倍,处理不当将阻碍
AI
、电动车发展机遇。他呼吁电企,尽快提升紧迫感,警告必须采取更快的行动。
AI
除了耗电量惊人,同时还非常耗水。
无论是训练阶段还是推理阶段,
AI
都离不开大规模的数据中心。而数据中心服务器运行的过程中会产生大量热量,水冷是服务器最普遍的方法,这就导致了巨大的水资源消耗。
有数据显示,GPT-3在训练期间耗用近700吨水,其后每回答20-50个问题,就需消耗500毫升水。
弗吉
尼亚理工大学研
究
指出,数据
中心每天平均必须耗费401吨水进行冷却,约合
10万个
家庭用水量
。
Meta在2022年使用了超过260万立方米(约6.97亿加
仑)的水,主要用于数据中心。
微软在其最新的环境报告中透露,2022年公
司用水量同比去年激增了34%,达到640万立方米,比2500个奥林匹克标准游泳池的水量还多。
谷歌发布的2023年环境报告同样显示,其2022年消耗的水量高达212亿升,比上一年增加了 20%,其中有约196亿升的水用于数据中心。