3月11日消息,根据《纽约客》杂志的报道,OpenAI的ChatGPT聊天机器人每天消耗超过50万千瓦时的电力,用于处理约2亿个用户请求,相当于美国家庭每天用电量的1.7万多倍。随着生成式人工智能的广泛应用,预计到2027年,整个人工智能行业每年将消耗85至134太瓦时的电力,这显示了AI技术对电力资源的巨大需求。
随着人工智能技术的发展,对芯片的需求急剧增加,进而带动了电力需求的激增。全球数据中心市场的耗电量已经从十年前的100亿瓦增加到如今的1000亿瓦水平。根据美国Uptime Institute的预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%增加到10%。
生成式人工智能带来了许多创新,但也伴随着处理性能和功耗方面的高昂成本。马斯克曾预计,未来两年可能从“缺硅”转变为“缺电”,电力短缺可能会成为人工智能发展的阻碍。他表示,电力短缺可能会像最近的芯片短缺一样对科技和汽车行业造成严重影响。