近期,非营利性人工智能研究机构Epoch AI公布了一项关于ChatGPT能耗的新研究成果,挑战了之前广泛流传的能耗认知。据此前报道,ChatGPT回答一个问题所需的能耗约为3瓦时,这一数字是谷歌搜索的10倍。然而,Epoch AI的研究人员对此提出了不同看法。
Epoch AI通过对OpenAI最新的默认模型GPT-4o进行深入分析,发现ChatGPT的平均查询能耗实际上约为0.3瓦时,远低于许多日常家用电器的能耗水平。Epoch AI的数据分析师约书亚・尤在接受采访时表示,与日常使用的电器、调节室内温度或驾驶汽车相比,ChatGPT的能耗其实并不显著。
在AI行业快速发展的背景下,其能耗问题及对环境的影响日益受到公众关注。上周,超过100个组织联合发表公开信,呼吁AI行业和监管机构确保新建AI数据中心不会过度消耗自然资源,并避免依赖不可再生能源。
约书亚・尤指出,他开展这项分析的原因是之前的研究存在过时的问题。例如,得出3瓦时能耗估计的研究报告是基于OpenAI使用较老、效率较低的芯片来运行其模型的假设。尤表示,虽然公众普遍认识到AI在未来几年将消耗大量能源,但当前AI的能耗情况并未被准确描述。他还指出,之前3瓦时的估算数据是基于较旧的研究,且初步计算显示这一数字可能过高。
尽管Epoch AI的0.3瓦时数据是一个估算值,因为OpenAI尚未公布足够细节来进行精确计算,但这一研究仍然具有重要意义。同时,该分析并未考虑ChatGPT的图像生成、输入处理等额外功能所消耗的电量。尤承认,带有长文件附件等“长输入”的ChatGPT查询可能会比普通问题消耗更多电量。
然而,尤也预计ChatGPT的基础能耗未来可能会增加。他指出,AI将变得更加先进,训练这些AI可能需要更多能源。未来的AI可能会被更频繁地使用,并处理更复杂、更多的任务。OpenAI和整个AI行业的关注点也在向推理模型转移。与GPT-4o等能够近乎即时响应的模型不同,推理模型需要花费更多时间来“思考”答案,这一过程会消耗更多计算能力,从而导致更高能耗。
尤表示,推理模型将承担越来越多旧模型无法完成的任务,并为此生成更多数据,这都需要更多数据中心支持。尽管OpenAI已经开始推出更节能的推理模型,如o3-mini,但目前来看,这些效率提升似乎不太可能完全抵消推理模型“思考”过程以及全球AI使用量增加所带来的额外能耗需求。