相比之下,美国家庭平均每天使用约29千瓦时电力。
也就是说,ChatGPT每天用电量是家庭用电量的1.7万多倍。
相关数据显示,光是训练GPT3一次,就要消耗128.7万度电,这电量够我们300个家庭用一年的了。
而且这还仅仅是训练阶段,如果是更先进的GPT4,消耗的电力将会更多,保守估计至少好几千万度电。
也难怪,业界很多大佬对此忧心忡忡。
特斯拉CEO马斯克表示,“一年多以前,短缺的是芯片,明年你会看到电力短缺,无法满足所有芯片的需求。”
OpenAI创始人奥特曼也对外表示,“未来AI技术发展,取决于能源的后勤保障,需要更多的光伏和储能支持AI算力。”
据说,奥特曼更是自掏腰包开电厂,向一家Helion公司注资3.75亿美金,豪赌他们家的可控核聚变技术。
ChatGPT耗电
有人可能不理解,为啥ChatGPT如此耗电?
作为一款大型深度学习语言模型,ChatGPT是需要大量的计算资源,来进行推理和生成文本。
在用户使用ChatGPT的过程中,实际的资源消耗主要集中在服务器端,比如CPU跟GPU。
此外,训练一个大型语言模型可能需要数周或数月的时间,在此期间,数以千计的GPU会持续运行,消耗大量电力。
SemiAnalysis数据显示,OpenAI需要3617台英伟达HGX A100、共28936个GPU来支持ChatGPT推理。
ChatGPT每天需要响应1.95亿次请求,预计每天需要消耗564兆瓦时电力,每个请求大约2.9瓦时。
举个形象的例子,哪怕你只是在ChatGPT随便敲几句话,OpenAI创始人奥特曼就得发愁了,电费账单又变长了!
据美国Uptime Institute的预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%猛增到10%。
而随着生成式AI的广泛应用,预计到2027年,整个人工智能行业每年将消耗85至134太瓦时(1太瓦时=10亿千瓦时)的电力。
毫不夸张的是,这种用电量,将与荷兰、瑞典、阿根廷等国的用电量一样。
除了耗电,ChatGPT也会消耗水资源。
这个很好理解,毕竟AI模型旺盛的算力需求,是需要与之匹配的散热能力才行,不然服务器恐怕要冒烟了。