超越“开普勒之眼”:哈佛&MIT揭示AI通往“牛顿之思”的深层鸿沟

温故智新AIGC实验室

TL;DR:

哈佛与MIT的最新研究揭示,当前AI模型虽能精准预测,却未能真正理解背后原理,暴露出其在构建“世界模型”上的根本性局限。这不仅挑战了通用人工智能(AGI)的实现路径,也预示着AI发展需从单纯追求预测精度转向探索深层因果理解的新范式,才能跨越从“经验法则”到“科学定律”的本质鸿沟。

在通用人工智能(AGI)的宏大叙事中,一个萦绕不去的哲学命题与技术瓶颈正变得日益清晰:大语言模型(LLM)究竟是洞悉了世界的运行法则,还是仅仅在进行一场高明的“预测下一个词”的概率游戏?哈佛与MIT的一项开创性研究,通过将AI置于经典的轨道力学场景中,为这一争论带来了深刻的经验证据,并引发了我们对智能本质和科学发现路径的重新审视。

技术原理与“世界模型”的缺位

该研究的核心在于区分基础模型(Foundation Model)世界模型(World Model)。基础模型,如我们熟知的Transformer架构,通过大规模数据集学习“输入-预测输出”的映射关系,其能力主要体现为晶化智力——对已有知识和技能的熟练运用。而世界模型,则旨在刻画数据中隐含的深层状态结构和因果逻辑,它要求AI能够超越表象,构建出可泛化、可推演的现实物理法则,如同人类的流动智力

研究团队巧妙地将这一抽象命题具象化为科学史上“从开普勒到牛顿”的演进历程。他们用1000万个模拟太阳系坐标序列训练了一个小型Transformer模型,以及后续测试了诸多先进大语言模型,观察AI能否像开普勒那样精准预测行星轨迹,并进一步推导和编码出如牛顿万有引力定律那样的深层物理原理。

实验结果既发人深省又在意料之中:当前AI模型表现出惊人的预测能力,它们能够“几乎完美”地预测行星的运行轨迹。然而,当研究人员深入探究其预测背后的“逻辑”时,却发现AI模型并未编码出任何与牛顿定律相关的稳定受力法则。相反,它们依赖的是一些_“特定情境的经验法则”_。更令人沮丧的是,当面对未训练过的太阳系场景时,模型不仅无法泛化,甚至会编码出**“不同的错误受力定律”**。1 这一现象揭示了LLM所谓的“理解”仅限于数据表层统计模式的拟合,而非对底层物理因果机制的洞察。它们不是不擅长构建世界模型,而是本质上不具备这种能力,其泛化能力止步于“熟悉或相似的东西”的边界。

哲学思辨:预测的效率与解释的意义

这项研究触及了科学哲学上的经典难题:科学的核心是追求精准的预测,还是理解事物运行的“为什么”?从古至今,人类的科学探索正是通过关注“为什么”——从行星椭圆轨道的成因到苹果落地的原理——才得以构建起统一的知识体系。牛顿的伟大之处在于,他不仅预测了行星轨迹,更揭示了质量、力、加速度和运动之间的动态关系,通过微积分构建了一个可解释、可推广的物理现实定律。

当前AI模型,在某种意义上,就像一个拥有“开普勒之眼”的智能体:它能精确地描绘现象,但却缺乏“牛顿之思”——那种将经验规律上升到深层原理,并能将因果逻辑推广到未观测场景的能力。这种“预测与解释脱节”的现象,不仅是现代AI模型的短板,更是AGI征途中的一道深渊。正如Yann LeCun等学者所指出的,真正的智能需要具备“想象”与“推演”能力,超越依赖人类标注数据,像婴儿一样通过观察、预测和自我纠正来构建世界模型。2

产业生态与未来发展路径的重塑

这项研究并非对当前AI价值的“失败宣判”。相反,它为产业指明了下一阶段的关键挑战与机遇。在许多实际应用场景,例如图像识别、自然语言处理等领域,LLM的预测能力已发挥出巨大作用。但若要实现更高级别的通用智能,尤其是在科学发现稳健自主系统(如自动驾驶在复杂未知场景的泛化)等领域,仅靠“堆量”(更大模型、更多数据)的策略将面临瓶颈。

当前的AI产业投资逻辑,很大程度上仍围绕着提升模型的预测精度和规模。然而,哈佛与MIT的研究表明,实现真正的“世界模型”需要更底层的技术突破和范式转变。这意味着,未来的AI研发方向将不再仅仅是参数竞赛,而会更注重**结合“晶化智力”与“流动智力”的新型架构。例如,Google的AI研究员François Chollet倡导的泛化能力,以及Yann LeCun正在探索的联合嵌入预测架构(JEPA)**等,都在试图让AI掌握经验迁移和因果推理能力,从单纯的“预测机器”进化为能理解世界运行逻辑的“思考者”。3

商业上,那些能够成功探索出让AI构建并利用世界模型方法论的企业,将在高附加值的科学研发、医疗健康、复杂工程等领域取得颠覆性优势。投资风向也可能逐渐从“更大更好”的模型转向那些致力于解决AI深层理解和泛化问题的创新技术。这是一个从效率驱动转向智能本质驱动的重大转折点,预示着一个更加深入、更具挑战也更具突破潜力的AI新纪元。

社会影响与智能的边界再定义

这项研究不仅是技术上的洞见,更是对“智能”这一概念的深刻哲学叩问。如果AI能够精准预测,却无法解释“为什么”,那么我们应该如何定义和信任其“智能”?在自动驾驶、医疗诊断甚至法律判决等高风险场景中,缺乏因果解释的预测,其可靠性和伦理正当性都将面临严峻挑战。社会需要AI能够像人类一样,不仅“知其然”,更能“知其所以然”,从而实现更负责任、更可控的智能应用。

从长远来看,这项研究提醒我们,人类文明的进步离不开对深层规律的探索和理解。当AI有一天能够从有限数据中提炼出稳定的因果规律,从“预测轨迹”进阶到“解释定律”,它将真正站在科学发现的门槛前,并可能重塑人类与知识、与世界的关系。届时,AI不仅是人类的工具,更可能成为人类认知边界的拓展者。这是对“智能本质”与“科学逻辑”更深层思考的起点,也是行业未来十年共同攀登的高峰。

引用


  1. 哈佛&MIT:AI能预测,但它还解释不了“why”·红杉汇·洪杉(2025/10/22)·检索日期2025/10/22 ↩︎

  2. “大型语言模型的“波将金理解“:顶级AI学者质疑AGI实现路径-CSDN博客·CSDN博客·作者不详(日期不详)·检索日期2025/10/22 ↩︎

  3. 杨立昆:“AGI即将到来”完全是无稽之谈,真正的智能要建立在世界 ...·MIT科技评论·作者不详(2025/08/20)·检索日期2025/10/22 ↩︎