AI纪元新范式:电力、平台与闭环生态,定义未来百年的核心之战

温故智新AIGC实验室

TL;DR:

AI正从效率工具升级为全新基础设施,其未来发展瓶颈已由模型参数转向电力与工程运营能力。在这场从“造模型”到“建平台”的范式转变中,能够构建持续学习和自我优化闭环的AI工厂与服务网络,将成为定义未来十年乃至百年格局的关键护城河。

2025年,全球AI领域正被一股无形的张力撕扯着。一方面,是生成式模型参数的指数级增长,不断挑战着“智能”的上限;另一方面,是支撑这些庞大模型运行所需的系统资源,尤其是电力,已逼近极限。当业界热衷于比较GPT-5、Claude 4和Gemini 2.5孰强孰弱之时,前谷歌CEO埃里克·施密特(Eric Schmidt)在一次公开演讲中,提出了一个更深层次的洞察,这不仅关乎技术,更关乎文明的未来。

施密特将AI的到来,比作人类历史上“火与电”的发明,并断言:“接下来的10年,将决定未来100年的格局。”1他强调的并非模型的性能极限或AGI的远近,而是AI正在从根本上重塑商业运作方式和人类文明的基础结构。与此同时,在硅谷知名投资机构a16z的一场对话中,芯片分析师迪伦·帕特尔(Dylan Patel)则敏锐地指出,GPU的稀缺已如“毒品”般需要抢夺,但真正的竞争远不止于此,而是谁能构建出支撑AI的_完整体系_。两位巨头的观点不谋而合,指向一个共识:参数不是边界,电力才是;模型不是护城河,平台才是;AGI不是目的,落地才是关键。如果说过去三年是AI的能力爆发期,那么接下来十年,将是AI基础建设的黄金时代

AI的“电网化”:从工具升级到系统重构

施密特开门见山地指出,AI不再仅仅是提升工具效率的助手,它正在演变为一种全新的基础设施,如同电网般,成为所有组织的标准配置。这一论断彻底颠覆了过去几年人们对AI的认知。它意味着AI不再仅限于“帮你写得更快”,而是开始“决定该怎么写”——从参与决策、辅助编程、智能客服,到数据输入和评估反馈机制,AI正全面重塑组织的运转方式。

这种转变并非简单的流程优化,而是深层的_组织变革_,催生出“AI原生”的新形态。企业不再需要预先制定详尽的AI集成计划,而是让AI直接参与实际工作,在实践中不断调整和优化。AI正从一种技能工具,演变为企业运营不可或缺的底层基础设施,其影响力渗透到每一个环节,引发着一场系统性的范式革命。

隐形瓶颈:电力成为AI发展的核心制约

长期以来,业界普遍认为AI发展的瓶颈在于芯片性能或算法复杂性。然而,施密特指出,真正限制AI前进的并非技术参数,而是电力供应。他援引具体数据警告称,到2030年,美国将需要新增92GW电力才能支撑数据中心的需求23,这相当于数十座大型核电站的发电量。然而,现实是美国当前在建核电站几乎为零。这意味着,即使模型技术再先进,若无充足能源,亦是空中楼阁。施密特甚至提出了在海外,例如中东国家的发电基地训练美国模型的可能性4,这预示着一场_算力全球化与能源本地化_的奇特博弈。

OpenAI CEO萨姆·阿尔特曼(Sam Altman)也在最新博客中呼吁,需要建造每周新增1GW AI算力设施的“AI工厂”,用电规模堪比一座城市,这需要芯片、电力、机器人和建筑等多个系统的协同突破5。这并非遥远的愿景,而是正在布局的基础建设,印证了施密特“AI将成为新电网”的预言。模型训练本身并非最昂贵,真正的成本在于电力消耗、长时间运行与设备维护。随着推理任务日益增多,生成内容日趋复杂(图像、视频、长文本),“AI工厂”的庞大电量需求正迅速演变为新的算力瓶颈。电力供应不足将直接导致模型训练受阻、推理成本飙升、AI工具难以大规模部署,最终_失去落地可能性_。因此,AI的下一个主战场,已从实验室转移到了发电厂。

“AI工厂”的崛起:从拥有芯片到运营平台

即使电力问题得以缓解,挑战依旧存在:如何有效地将海量芯片、模型和任务协同运行?迪伦·帕特尔直言,当下GPU紧缺,如同“抢毒品”一般,但光有芯片远不够,核心在于能否让它们有效协作6。他将“AI工厂”的核心能力拆解为四个层面:算力底座(GPU/TPU)、软件栈(训练框架/调度系统)、冷却与电力管理(温度、负载、电费控制),以及关键的工程能力(模型优化、算力调优、成本控制)。

这意味着,AI工厂并非单一模型或芯片,而是一整套连续的工程调度能力。它需要将GPU视为“原材料”,以软件调度为“控制室”,以冷却电力为“水电工”,并依赖工程团队进行“维修组”般的持续优化。我们观察到,芯片公司不再仅仅销售硬件,而是开始“包施工”,如英伟达(Nvidia)正逐渐整合服务器、冷却方案和平台搭建,将自己升级为_平台提供商_。这一趋势在英伟达与OpenAI的合作意向中得到印证:Nvidia将为OpenAI提供最多10GW级别的数据中心资源,投资规模或达数千亿美元。阿尔特曼明确指出,计算基础设施将是未来经济的基础。Nvidia不仅售卖芯片,更深度参与部署、建设和运营整个AI工厂5这揭示了一个核心逻辑:真正能形成闭环的,不再是最聪明的研究者,而是最懂如何落地、如何运营复杂系统的人。AI不再是“买来即用”的产品,而是需要持续运营的_复杂工程系统_。

模型能力扩散的“双刃剑”:重塑竞争边界

当头部企业还在争夺基础设施运营能力之时,AI模型能力扩散的新变化已然显现。施密特警告称:“我们无法阻止模型蒸馏。几乎任何能访问API的人,都能复制其能力。”1模型蒸馏技术允许研究者使用强大的大模型训练出成本更低、速度更快、精度相似的小模型,且难以追踪。迪伦·帕特尔的数据显示,蒸馏成本仅占原始训练的1%左右,却能复现原模型80-90%的能力6。这意味着,即使OpenAI、Google等巨头严密保护其大模型,其核心能力仍可能通过蒸馏被快速复制和扩散。

这种趋势带来的最大隐忧是:技术扩散的速度,可能远快于治理跟上的节奏。当大量具备强大能力的“GPT-4-lite”模型在低成本下广泛部署,却不受监管、难以溯源、责任不清时,我们如何确保AI的可信度?施密特担心的不是模型太强,而是这种_无序扩散可能带来的伦理和治理挑战_。DeepSeek大模型以更低的算力要求和成本达到与顶尖模型相当的效果7,并掀起“价格战”7,这正是模型能力扩散背景下市场竞争格局重塑的体现。单纯拥有最先进的模型不再是绝对护城河,竞争的焦点已转向如何更好地运用、服务和管理这些扩散的能力

闭环生态:未来AI平台的真正护城河

面对模型能力扩散的趋势,施密特给出了最终答案:未来成功的AI公司,不只拼模型性能,更要拼持续学习的能力1。这要求企业建立一个“越用越聪明、越用越好用、越用越稳定”的平台,而非一次性产品。他进一步解释,平台的核心并非功能的多寡,而是_让用户离不开你_。正如电网让所有灯都亮,操作系统承载万千应用,AI平台也应是一个能让其他团队、用户、模型接入、调用、增强的持续运转的服务网络。

施密特建议年轻创始人,不要只关注产品是否完美,而要关注它是否形成了**“用 → 学 → 优化 → 再用”的闭环路径**。只有具备持续学习能力的平台,才能在市场中长期生存。迪伦·帕特尔补充说,英伟达长期的成功正是基于这种将芯片和软件绑成闭环的策略:客户用得越多,其需求越被理解;产品越好用,客户粘性越强,从而形成**“越用越值”**的良性循环6。未来AI平台的成功者,将是那些不仅能构建出强大模型,更能让平台“活下来,而且越活越强”的企业。

结语:谁先形成闭环,谁赢未来

埃里克·施密特将AI比作电与火,预示着未来十年的抉择将定义未来百年。AI能力已趋成熟,但如何落地、如何搭建、如何有效使用仍是核心命题。当前的重点并非等待下一代模型,而是将现有AI工具在实际场景中跑通,让AI能够稳定、持续地发挥价值,而非仅限于发布会上的惊艳。

这场竞争不再是“聪明人”的智力较量,而是_执行力的比拼_。谁能率先将AI从实验室带到现实,构建起围绕能源、算力、工程运营和持续学习的闭环生态系统,谁就将掌握未来十年的主动权,并深度影响人类文明的进程。这场“闭环之争”,已然开场。

引用


  1. 前谷歌 CEO 施密特:AI 像电与火,这 10 年决定未来 100 年·AI 深度研究员·AI深度研究员(2025/9/24)·检索日期2025/9/24 ↩︎ ↩︎ ↩︎

  2. 2024 United States Data Center Energy Usage Report·Lawrence Berkeley National Laboratory·(2024/12)·检索日期2025/9/24 ↩︎

  3. 埃里克·施密特在采访中的观点·YouTube·(2025/9/20)·检索日期2025/9/24 ↩︎

  4. Transcript: US Lawmakers Probe AI’s Role in Energy and Climate·Tech Policy Press·(2025/9/24)·检索日期2025/9/24 ↩︎

  5. Abundant Intelligence·Sam Altman Blog·Sam Altman(2025/9/23)·检索日期2025/9/24 ↩︎ ↩︎

  6. Dylan Patel 在 a16z 上的对话·YouTube·(2025/9/24)·检索日期2025/9/24 ↩︎ ↩︎ ↩︎

  7. deepseek 大模型生态报告·东方财富证券·(2025/3/7)·检索日期2025/9/24 ↩︎ ↩︎