专栏名称: 数据保护官
DPOHUB数据保护官俱乐部的官微:一个聚焦数据隐私和数据安全的非营利性高端学术平台;一个整合法律、技术及管理的专业数据合规生态体;一个制造干货、相互赋能及塑造职业品牌的数据合规共同体。 合作WX:heguilvshi
目录
相关文章推荐
鸡西新闻网  ·  即将出分!转存这份2025考研复试全攻略 ·  10 小时前  
鸡西新闻网  ·  即将出分!转存这份2025考研复试全攻略 ·  10 小时前  
赛先生  ·  为什么人类拥有如此漫长的童年? ·  4 天前  
51好读  ›  专栏  ›  数据保护官

AI“电荒”警告!黄仁勋、奥特曼:AI尽头是光伏和储能

数据保护官  · 公众号  ·  · 2024-03-11 23:19

正文

正式报名 | 人工智能治理专家认证CAIGP™课程

  • 时间:4月20—21日(周末两天)

  • 形式:线下为主、线上同步

  • 费用: 早鸟价(2024年4月10前付款)6800元 三人以上团购价单独询价

  • 地址:上海市静安区江场三路250号16号楼5层

  • 咨询:138 1664 6268,[email protected]

  • 扫描二维码索取报名表,并于 4月10日前缴费

导读

以ChatGPT为代表的AI大模型在给人类社会带来巨大变革的同时,也需要耗费大量的能源和水资源。以黄仁勋、马斯克和奥特曼为代表的科技大佬们已经预警AI行业正在面临能源危机。

全文共计4683字,预计阅读时间7分钟

来源 | 数据观综合(转载请注明来源)

编辑 | 蒲蒲

近日,AI芯片龙头英伟达的创始人兼CEO黄仁勋表示,AI的未来发展与状态和储能紧密相连。他强调:“不应仅仅关注计算力,而是需要更全面地考虑能源消耗问题。AI的尽头是光伏和储能。我们不能只想着算力,如果只考虑计算机,我们需要烧掉14个地球的能源。

同时,近期OpenAl的创始人山姆·奥特曼也提出了类似的看法。他认为:“未来AI技术的发展将高度依赖于能源,特别是光伏和储能技术的进步。未来AI的技术取决于能源,我们需要更多的光伏和储能。


ChatGPT日耗电超50万度

在OpenAI训练的AI聊天机器人ChatGPT大火之后,谷歌、Meta等科技巨头们加大了在生成式人工智能研发和应用领域的投入,这也给诸多领域带来了新的发展机遇,尤其是提供算力支持的芯片,英伟达H100、A100等供不应求,大幅推升了他们的营收和利润。

不过,生成式人工智能研发和应用的热潮,也有不利的一面,例如对电力的消耗 据《纽约客》杂志报道 ,ChatGPT每天需要处理约2亿次请求,日耗电量超过了50万千瓦时。 报道中指出,根据2022年的数据,美国家庭的日均用电量是29千瓦时。 50万千瓦时就已能满足17241个美国家庭一天的用电需求,是47个美国家庭一年的用电量。

如果将ChatGPT等生成式人工 智能技术整合到热门的应用中,电力需求就将更大。 根据发表在《焦耳》杂志上的一项研究表明,人工智能对环境的影响可能比之前认为的要大。研究发现,人工智能每年最终消耗的能源与荷兰、瑞典等国家一样大,甚至更多,可能会破坏全球减少碳排放的努力。

这篇论文的作者——阿姆斯特丹自由大学商业与经济学院的博士候选人德弗里斯(Alex de Vries)表示,基于技术的发展速度,这可能在短短几年内实现。

德弗里斯在他的研究中解释道,像ChatGPT这样的大型语言模型(LLM)需要大量的数据集来训练人工智能。他称,“如果你要花费大量资源,建立这些真正的大型模型,并尝试运营一段时间,那将是潜在的巨大能源浪费。”

AI 模型经过训练阶段后,会过渡到推理阶段,然后根据新的输入生成信息。而推理阶段消耗的能源似乎更多。

研究公司SemiAnalysis表示,OpenAI公司需要3617台英伟达的HGX A100服务器,总共28936个图形处理单元(GPU)来支持ChatGPT,这意味着每天的能源需求就要达到564兆瓦时,这要比训练阶段的能源需求高得多。

德弗里斯还指出,谷歌报告显示,从2019年到2021年,其与 AI 相关的能源消耗中有60%来自所谓的生成推理阶段。

过去的工作常常关注的是 AI 训练所消耗的能量,但德弗里斯提醒道,需要有更多的工作来考虑 AI 的整个生命周期。

该研究论文指出,随着 AI 产品的广泛使用以及被更多公司采用,对 AI 芯片的需求正在上升。

英伟达生产的GPU芯片作为人工智能领域的命脉,该公司在2023年第二季度的收入为135亿美元,其数据中心业务较上一季度增长了141%,这一点足以证明人工智能产品需求的迅速增长。

德弗里斯告诉媒体:“考虑到未来几年的预期产量,到2027年,新制造的 AI 设备的用电量将与荷兰一样多,这也与瑞典、阿根廷等国的用电量处于同一范围。”

德弗里斯还承认:“最坏的情况就是,仅谷歌一家公司的 AI 就可以消耗与爱尔兰等国家一样多的电力。”

德弗里斯在论文中设想,如果将生成式人工智能集成到谷歌的每一个搜索中,那么届时谷歌就会大幅增加对电力的需求。

SemiAnalysis估计,在每个谷歌搜索中实现类似ChatGPT的AI,将需要51.28万个英伟达A100 HGX服务器,总计410.26万个GPU,每台服务器的电力需求为6.5千瓦,这将相当于每天80吉瓦时的电力消耗和每年29.2太瓦时的电力消耗。

另一家研究机构New Street Research也得出了类似的估计,认为谷歌将需要大约40万台服务器,这将导致每天消耗62.4吉瓦时,每年消耗22.8太瓦时的能源。

不过,《纽约客》杂志在报道中也提到,由于在推进 AI 研发及应用的科技巨头们,并未披露电力消耗方面的数据,因而计算 AI 总的耗电量并不容易。 亚历克斯·德弗里斯 也是基于英伟达公开的数据,给出相关的预期的。

但无论 AI 领域的电力需求是否容易计算,这一领域的电力消耗在大幅增加都是不争的事实。而随着 AI 的发展,对电力的需求预计还将持续增加。


马斯克:AI缺芯之后是缺电

今年2月底,在“博世互联世界2024”大会上,马斯克最新采访表示: 芯片短缺的情况可能已经过去,但 AI 和电动汽车正在以如此迅猛的速度扩张,明年全球将面临电力和变压器供应紧张的问题。

回想去年此时,在一轮由ChatGPT掀起的大模型创业潮里,AI芯片成了抢手货,其中GPU最为明显。 马斯克指出:“就我目力所及,我从未见过任何技术能比 AI 计算能力的发展更快, AI 上线的算力似乎每6个月就会增加10倍。显然,这种情况不可能永远以如此高的速度持续下去,否则会超过宇宙的质量,但我从未见过任何类似的事情。这就是为什么Nvidia市值如此巨大的原因,因为他们目前拥有最好的神经网络芯片。淘“芯”热远远超过历史上所有的淘金热。”

马斯克同时指出:“ AI 算力的限制是可以预见的,事实上我在一年多前就预测到了这一点——一年多前的芯片短缺,神经网络芯片。然后,很容易预测,下一个短缺将是降压变压器(voltage stepdown transformers)。如果你从电力公司获得 100-300 千伏的电力,而它必须一直降压到 6 伏,这就是一个很大的降压过程。”

随后,他警告称:“那么,接下来短缺的将是电力。我认为明年,没有足够的电力来运行所有的芯片。电动汽车和人工智能的同步增长,两者都需要电力,都需要变压器——我认为,正在创造对电气设备和发电的巨大需求。”

值得注意的是,这已经不是马斯克第一次试图引起业界对于缺电危机的更大关注。

去年以来,马斯克已经多次在各个场合预警可能即将到来的电力短缺。当地时间7月14日,马斯克在xAI公司会议上预测,未来两年将经历从硅料短缺到电压器短缺,再到电力短缺,单位能源有效计算量会是最重要指标。

7月底,马斯克在太平洋瓦电公司PG&E主办的创新峰会上重申,美国2年内将爆发大缺电,到2045年美国的电力消耗将增加2倍,处理不当将阻碍 AI 、电动车发展机遇。他呼吁电企,尽快提升紧迫感,警告必须采取更快的行动。


AI不仅耗电还耗水

AI 除了耗电量惊人,同时还非常耗水。

无论是训练阶段还是推理阶段, AI 都离不开大规模的数据中心。而数据中心服务器运行的过程中会产生大量热量,水冷是服务器最普遍的方法,这就导致了巨大的水资源消耗。

有数据显示,GPT-3在训练期间耗用近700吨水,其后每回答20-50个问题,就需消耗500毫升水。 弗吉 尼亚理工大学研 指出,数据 中心每天平均必须耗费401吨水进行冷却,约合 10万个 家庭用水量 Meta在2022年使用了超过260万立方米(约6.97亿加 仑)的水,主要用于数据中心。 微软在其最新的环境报告中透露,2022年公 司用水量同比去年激增了34%,达到640万立方米,比2500个奥林匹克标准游泳池的水量还多。 谷歌发布的2023年环境报告同样显示,其2022年消耗的水量高达212亿升,比上一年增加了 20%,其中有约196亿升的水用于数据中心。

此外, AI







请到「今天看啥」查看全文