AI是“吃电狂魔”? 能有多耗电? 我们如何应对?
“下一个短缺的将是电力。”不久前,围绕人工智能(AI)发展,特斯拉首席执行官马斯克发出这样的预警。他表示,人工智能计算的约束条件是可预测的,“我在一年多前就预测过芯片短缺,下一个短缺的将是电力。我认为明年将没有足够的电力来运行所有的芯片。”此外,OpenAI首席执行官山姆·奥特曼也表示,人工智能将消耗比人们预期更多的电力,未来的发展需要能源突破。在人工智能飞速发展的背后,能源消耗问题也日益凸显,成为业内关注的焦点。甚至有人提出,“AI的尽头是算力,而算力的尽头是电力”。那么,人工智能到底有多耗电?人工智能发展“缺电”了吗?面对能耗问题,我国又拿出了怎样的应对方案?AI有多耗电?当下人工智能大模型的竞争,颇像一场“算力军备竞赛”。在规模效应(ScalingLaw)的驱动下,各公司通过不断增加模型参数和数据量,期待实现“大力出奇迹”,相应地,算力需求也成倍增加。算力的背后,是电力在支撑。你可以在脑海中想象这样一幅画面——在数据中心或智算中心,成千上万台服务器和芯片整齐列阵、昼夜不停地运转。当下训练AI大模型使用的主流算力芯片英伟达H100芯片,一张最大功耗为700瓦,这意味着运行一小时就要耗电0.7度。而此前有消息称,OpenAI训练GPT-5,需要数万张H100芯片。通过昼夜不息的数据中心,大家会对AI耗电有一个感性认识,而数据则更加直观。以GPT-3的训练为例,GPT-3有1750亿个参数,据估计,训练过程使用了大约1287兆瓦时(也就是128.7万度)的电力。该如何理解这个耗电量?这相当于美国约121个家庭一整年的用电量。也曾有专家打了这么一个比方,大概相当于3000辆特斯拉电动汽车共同开跑,每辆车跑20万英里。国际能源署(IEA)在今年1月的一份报告中曾表示,ChatGPT响应一个请求平均耗电2.9瓦时——相当于将一个60瓦的灯泡点亮略少于三分钟。另外,据美媒报道,ChatGPT每天响应约2亿个需求,消耗超过50万度电力,相当于1.7万个美国家庭平均一天的用电量。AI耗电的中国解法之一各种数据似乎都在说明,AI是一只“耗电巨兽”,那么下一个问题就是,它的胃口还能被满足吗?AI发展“缺电”了吗?“AI发展‘缺电’并不是现在已经出现的问题,而是未来可能面临的问题。”中国现代国际关系研究院国际安全所所长刘冲作出这样的判断。他表示,目前AI发展的路线是不断增加模型参数、叠加芯片,如果继续按照这个路线发展,将来消耗的电力将更多,从这个角度来讲,未来AI的能耗问题可能会越来越突出,尤其是对于电力供应本身比较紧张的国家。目前,我国算力总规模已经位居全球第二。AI耗电,也是我国需要应对的问题。我国在电力方面具有优势,已建成全球规模最大的电力供应系统和清洁发电体系,其中,水电、风电、光伏、生物质发电和在建核电规模多年位居世界第一。值得一提的是,在提升具体的AI和电力相关技术外,我国在宏观层面的一个“解题思路”,也值得关注。让我们从最近举行的一场青海推介会说起,推介会的主题是绿色算力产业发展。青海有着丰富的绿色电力资源,包括光电、风电、水电等。截至2023年底,青海省清洁能源装机超过5100万千瓦,占比92.8%,发电量占比超84.5%。AI算力需要消耗大量电力,青海的绿电又用不完,如果把数据中心搬到青海,将“绿电”变为“绿算”,将绿色“瓦特”变为绿色“比特”,岂不是双向奔赴?在中国电信(国家)数字青海绿色大数据中心,通过风光水等清洁能源的互补,已经实现了数据中心的100%清洁能源供应。而且,数据中心建到青海,不仅能解决电力问题,还能大大降低散热能耗。青海气候干燥、冷凉,数据中心可实现全年314天自然冷却,制冷用电比全国平均水平低40%左右。在这方面,还有一位先行者,就是同样具有电力和气候优势的贵州。作为全球超大型数据中心集聚最多的地区之一,贵州正在人工智能的赛道上迈开步伐奔跑。去年,贵州部署智算芯片达8万张,总算力规模增长28.8倍。在贵州和青海绿色算力产业蓬勃发展的背后,是一个更为浩大的工程——“东数西算”工程。客观上,由于网络时延等限制存在,并非所有算力服务场景都适用“东数西算”。比如自动驾驶、证券交易等低时延业务场景就需要就近计算。然而,人工智能模型训练推理这样高时延业务场景,正好是“东数西算”的“舒适区”,“东数西训”成为“东数西算”的典型应用场景。据澎湃新闻 原文链接://shuzhiren.com/post/123250.html