奥特曼的0.34瓦时之谜:ChatGPT能耗披露是透明化里程碑还是“绿色烟雾弹”?

温故智新AIGC实验室

OpenAI首席执行官山姆·奥特曼近期披露,ChatGPT单次查询平均耗电仅0.34瓦时,这一数字在业内引发广泛讨论。尽管有独立研究部分印证其在模型推理阶段的合理性,但众多专家对其数据完整性、覆盖范围及透明度提出质疑,认为该数字可能低估了AI运行的真实能耗,并呼吁科技巨头需就AI对环境的深远影响提供更全面、标准化的披露。

近期,OpenAI首席执行官山姆·奥特曼(Sam Altman)在一次博客文章中不经意间披露了一个引人注目的数据:ChatGPT单次查询平均耗电量为0.34瓦时(0.00034千瓦时),耗水约0.000085加仑1。这一数字被奥特曼描绘为相当于节能灯泡工作两分钟的耗电量,或大约1/15茶匙的水量,甚至有人将其与2009年谷歌单次搜索的能耗相提并论234。作为人工智能领域的领军企业,OpenAI此次对能耗数据的公开,无疑在行业内投下了一颗石子,激起了关于AI环境足迹透明度的热烈讨论。然而,这个乍听之下微不足道的数字,真的靠谱吗?它究竟是AI能耗透明化的里程碑,抑或是一枚精心设计的“绿色烟雾弹”?

数据的可靠性:多方印证与疑虑并存

对于OpenAI公布的0.34瓦时数据,业内持有截然不同的观点。一部分声音认为,该数据与现有的一些独立研究结果存在一定的吻合,这在一定程度上支持了其在模型推理阶段的可信度。

支持方的论据主要体现在第三方研究的趋同性。例如,知名研究机构Epoch.AI在2025年发布的报告显示,GPT-4o单次查询能耗约为0.0003千瓦时,与OpenAI的数字基本一致1。这项测算基于“专家混合”架构、1000亿活跃参数及500个token的典型响应输出等假设。同年,尼达尔·杰拉姆(Nidhal Jegham)领衔的学术团队也发布了细分数据,例如GPT-4.1 nano单次查询耗电0.000454千瓦时,尽管针对更复杂的GPT-4.5模型,能耗增至0.03千瓦时1。这些趋同的数据似乎暗示,至少在GPU服务器直接执行模型推理的核心环节,OpenAI的声明并非空穴来风。

硬件层面的推算也提供了部分支持。据行业报告,ChatGPT日均查询量高达10亿次。若按单次0.34瓦时计算,日总能耗约为340兆瓦时。技术专家据此推测,OpenAI可能需要部署3200台搭载英伟达DGX A100芯片的服务器集群,这意味着每台服务器需每秒处理4.5次查询1。考虑到OpenAI的标准——每次请求平均生成500个token,单台服务器需实现每秒生成2250个token。尽管约万·斯托伊科维奇(Jovan Stojkovic)等学者在2024年的实验中展示了搭载H100 GPU的服务器可达每秒6000个token的生成速度,但杰拉姆团队2025年的实测结果却显示OpenAI模型的生成速度在每秒75到200个token之间1。这种差异性使得3200台服务器支撑10亿次日均查询的理论模型仍存在争议,但其可能性尚未被完全否定。

然而,尽管有上述“证据”,不少专家对奥特曼公布的能耗数据持保留甚至怀疑态度。他们的质疑主要集中在以下几个关键层面:

  1. 能耗核算的范围可能过于狭窄。 批评者指出,0.34瓦时这一数字可能仅仅涵盖了GPU服务器进行模型推理本身的能耗,而忽略了数据中心运行所需的其他关键基础设施能耗1。这包括数据存储、冷却系统、网络设备、防火墙、电力转换损失,以及备用电源等。在实际的数据中心运营中,GPU的能耗通常仅占总能耗的一部分。这种“选择性披露”在科技公司的能耗报告中并非孤例,例如Meta也曾被指出存在类似局限1
  2. 服务器规模估算可能严重偏低。 绿色运营倡导者马克·布彻(Mark Butcher)等评论员认为,3200台GPU服务器远不足以支撑ChatGPT每日10亿次的全球查询量,尤其是在考虑到高可用性、用户峰值以及编程或图像分析等复杂多模态应用时1。更有第三方研究报告暗示,OpenAI实际部署用于推理的GPU数量可能高达数万甚至数十万颗。如果这一推测属实,那么其真实能耗水平将远超宣传中的单次查询0.34瓦时的数字。
  3. 关键背景信息披露不完整。 批评者如大卫·米顿(David Mytton)强调,OpenAI的声明缺乏必要的上下文信息,使得数据难以被有效评估和横向对比1。例如:
    • “平均查询”具体指代什么?是单次提问,还是涵盖多轮对话的完整交互?
    • 该数据是仅针对某个特定模型(如GPT-3.5或GPT-4),还是多个模型的平均值?
    • 这个数据是否包含了PDF文件分析、图像生成等多模态输入输出的复杂任务?
    • 所提及的水使用量是直接用于服务器冷却,还是包括了电力生产过程中的间接用水?
    • 为何没有提供碳排放数据?碳排放量会根据电力来源(如可再生能源或化石燃料)和地理位置而有显著差异。 缺乏这些关键参数,无疑增加了外界判断其可信度的难度。

冰山一角:推理能耗的长期影响

关于人工智能能耗的讨论,长期以来主要聚焦于模型训练阶段,因其巨大的算力需求导致令人咋舌的电力消耗。例如,据估算,GPT-4的训练过程大约消耗了5000万至6000万千瓦时的电力1。然而,奥特曼此次对推理能耗的披露,将焦点引向了另一个同样关键且长期被忽视的环节——模型推理(即用户查询)阶段

尽管单次查询的能耗相对较低,但当考虑到ChatGPT每日数十亿次的庞大查询量时,推理阶段的总能耗将是一个天文数字,甚至可能在短短数月内超越训练阶段。按照OpenAI公布的单次查询0.34瓦时、日均10亿次查询计算,仅需150至200天,推理阶段累计消耗的电力就将超越GPT-4的训练能耗1。这意味着,随着AI应用的普及和用户规模的持续增长,推理能耗将成为AI环境足迹中日益重要的组成部分,其长期累积效应不容小觑。

OpenAI此次公开能耗数据,恰逢英伟达发布GPU全生命周期碳排放报告、谷歌发布TPU硬件环境评估报告之际1。这是否预示着科技巨头们终于开始响应社会对AI技术透明度的普遍呼声,迈向一个更加负责任、可持续发展的AI时代?抑或,奥特曼的举动只是一种策略,旨在淡化AI对气候的潜在影响,以符合其商业利益,而实际情况可能远比表面复杂?这背后,反映的是企业在追求技术飞跃与承担社会责任之间的微妙平衡。

在AI系统日渐融入我们生活的方方面面之时,其庞大的能源消耗和环境足迹正成为全球关注的焦点。尤其是在全球气候变化日益严峻的背景下,公众和监管机构对科技公司在碳排放和资源消耗方面的透明度要求日益提高。奥特曼的披露,无论其数据完整性如何,都开启了一扇窗,迫使我们更深入地审视AI的真实代价,并呼吁行业制定更统一、更严格的能耗披露标准。

结论:又一颗“绿色烟雾弹”?

正当人们以为AI能耗的争议已没有太多新意时,OpenAI这家以封闭著称的公司却突然公开了具体的能耗数据,这无疑出乎许多人的意料。对一些人而言,这是值得欢迎的一步,预示着科技巨头们或许正开始向公众披露其资源消耗与气候影响的“黑箱”转变。

然而,质疑的声音同样响亮且有理有据。此次数据披露,仅作为一篇博客文章的附带内容,且与文章主题关联性不强,缺乏必要的背景信息、计算方法和评估标准,使其“平均查询”的定义变得模糊不清1。这种不完整性,使得“0.34瓦时”更像是一个营销数字,而非一项严谨的科学报告。

在OpenAI能够提供更详实、更透明、更具可验证性的数据之前,0.34瓦时这个数字应被审慎看待。它或许是AI行业走向公开透明的起点,一次对公众诉求的积极回应。但同时,它也可能只是又一场精心设计的“绿色烟雾弹”——在模糊不清的语境下,以看似微小的数字,来掩盖AI技术日益增长的巨大环境成本。真正的透明化,需要的是全面的数据、标准化的测量方法以及独立的验证,而非仅仅是一个缺乏上下文的“平均值”。

References


  1. 金鹿(2025/6/17)。奥特曼声称ChatGPT单次查询仅耗电0.34瓦时,这个数据靠谱吗?。36氪。检索日期2025/6/17。 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  2. 纵览网(2025/6/17)。纵览网丨ChatGPT单次查询能耗与2009年谷歌搜索相当。新浪财经。检索日期2025/6/17。 ↩︎

  3. 搜狐(2025/6/17)。纵览网丨单个ChatGPT 查询消耗的能源与 2009 年的 Google 搜索消耗的能源一样多。搜狐。检索日期2025/6/17。 ↩︎

  4. 站长之家(2025/6/17)。单个ChatGPT 查询消耗的能源与 2009 年的 Google 搜索消耗的能源一样多。站长之家。检索日期2025/6/17。 ↩︎