ChatGPT可能不像先前所假设的那样贪婪

ChatGPT,OpenAI的聊天机器人平台,可能不像先前所假设的那样贪婪。但根据一项新研究,它的能源消耗取决于ChatGPT的使用方式和回答查询的AI模型。

非营利组织AI研究机构Epoch AI最近进行的一项分析试图计算一个典型ChatGPT查询消耗多少能量。一个常被引用的数据是,ChatGPT需要大约3瓦时的能量来回答一个问题,是谷歌搜索的10倍。

Epoch认为这是一个高估。

使用OpenAI的最新默认模型ChatGPT,即GPT-4o,作为参考,Epoch发现平均ChatGPT查询消耗大约0.3瓦时的能量,少于许多家用电器。

“与使用正常家用电器、加热或冷却房屋或开车相比,能源消耗真的没那么重要,”进行分析的Epoch数据分析师Joshua You告诉TechCrunch。

AI的能源消耗以及广义上的环境影响,是一个备受争议的话题,因为AI公司希望迅速扩展其基础设施规模。就在上周,一些组织发布了一封公开信,呼吁AI行业和监管机构确保新的AI数据中心不会耗尽自然资源,迫使公用事业公司依赖非可再生能源。

You告诉TechCrunch,他的分析是由于他认为先前的研究已经过时。例如,他指出,得出3瓦时估计的报告的作者假设OpenAI使用了较旧、效率较低的芯片来运行其模型。

图片来源:Epoch AI

“我看到很多公众议论,他们正确地认识到AI未来将消耗大量能源,但并没有真正准确地描述今天AI的能源消耗,”You说。“此外,我的一些同事注意到,最广泛引用的每次查询3瓦时的估计是基于相当老的研究,并且根据某些草稿估算似乎太高了。”

这项分析也没有考虑ChatGPT功能如图片生成或输入处理所产生的额外能源成本。您承认“长输入”ChatGPT查询(例如附有长文件的查询)可能在一开始消耗比典型问题更多的电量。

你说,然而,他确实期望ChatGPT的基线功耗会上升。

“AI将变得更加先进,训练这种AI可能需要更多的能量,并且这种未来的AI可能被更强烈地使用 - 处理更多任务,更复杂的任务,比如人们如何使用ChatGPT今天,”You说。

虽然近几个月在AI效率方面取得了显著突破,但预计AI的规模将推动庞大、耗能的基础设施扩展。根据Rand报告,在未来两年,AI数据中心可能需要几乎是加利福尼亚2022年的电力容量(68吉瓦)。到2030年,训练一个前沿模型可能需要相当于8个核反应堆的电力输出(8 GW),报告预测。

单单ChatGPT就触及了庞大且不断扩大的用户群,使得其服务器需求同样庞大。OpenAI与几家投资伙伴计划在未来数年内在新的AI数据中心项目上投资数十亿美元。

OpenAI的关注 - 以及整个AI行业的关注 - 也正在转向推理模型,这些模型在完成任务的能力方面通常更强大,但运行时需要更多的计算。与几乎即时回答查询的模型(如GPT-4o)不同,推理模型在回答之前会“思考”几秒钟到几分钟,这个过程需要更多计算 - 因此也需要更多电力。

“推理模型将越来越承担起老模型无法完成的任务,并产生更多数据来完成,两者都需要更多的数据中心,”You说。

OpenAI已经开始发布更具能源效率的推理模型,如o3-mini。但至少在目前阶段,看来效率提升不太可能抵消推理模型“思考”过程和全球AI使用增长带来的电力需求增加。

您建议担心AI能源足迹的人不经常使用类似ChatGPT的应用程序,或选择最小化所需计算的模型 - 在可以实现的范围内。

“您可以尝试使用更小的AI模型,如[OpenAI的] GPT-4o-mini,并节制地使用它们,以避免处理或生成大量数据。”You说。