TL;DR:
Meta超级智能团队成员毕树超从怀疑到笃定,揭示AGI的到来并非偶然,而是深度学习、Transformer、规模法则与强化学习螺旋式演进的必然结果。他预言,随着海量算力与智能体交互加速,一个以“经验生成”为核心的AGI新范式正在开启,重塑我们对智能和世界的认知。
在人工智能领域,少有哪个概念能像“通用人工智能”(AGI)一样,激起如此广泛的兴奋与争论。它曾是科幻的疆域,如今却被越来越多的顶尖科学家视为触手可及的现实。近日,前OpenAI多模态研究负责人、YouTube Shorts主要负责人,现已加入Meta超级智能实验室的毕树超首次公开发声,其从十年前的AGI怀疑者转变为如今的坚定信仰者,并预言“2025,AGI已来”,这一转变本身就值得我们深入剖析。
从怀疑到笃定:AGI范式转变的深层驱动力
毕树超的个人心路历程,折射出整个AI科学界对AGI认知的深刻演进。他曾固守“人脑独一无二”的信念,并对AI技术本质上仅是“改进Tensor运算和梯度优化”的看法感到困惑。然而,随着对AI理解的加深,他逐渐意识到:智能的模拟方式并非唯一,且人脑并非神秘的圣殿,而更像是一台经过生物进化的“生物计算机”,其复杂性最终可归结为规模问题。这一哲学层面的突破,为他接受AGI奠定了基础。
其观点的核心在于,高质量人类数据的稀缺性正在倒逼我们寻找新的知识生成范式。如David Silver等人提出的“经验时代”(Era of Experience)1所指,人类文明数千年积累的高质量文本数据行将耗尽。在算力日益廉价的背景下,计算机通过与环境的自主交互,能够以超越人类的速度自动生成新的知识和数据。这正是毕树超看好通用人工智能乃至超人工智能(ASI)的关键逻辑——智能将不再仅仅是人类经验的投射,更是机器在无限交互中自我学习、自我进化的产物。
算法基石的崛起:深度学习与Transformer的十年铸剑
毕树超回顾了近十五年AI技术发展的脉络,清晰地描绘了从“手工设计”到“数据驱动”的范式转变:
-
深度学习革命的序章(2012-2015):
- AlexNet(2012)的横空出世,用GPU和海量数据实现了视觉任务的性能飞跃,宣告了深度学习时代的到来。它证明了足够的计算能力和数据量能够超越人类数十年的手工算法设计,给视觉研究带来“灾难”的同时,也开启了新的纪元。
- Word2Vec(2013)将“一切皆可向量化”的理念推向前台,揭示了通过向量运算捕捉语义关系的惊人能力,进一步强化了“计算+数据优于归纳偏差”的信念。
- Adam优化器(2015)的标准化,大大降低了训练复杂模型的门槛。
- ResNet(2015)的“跳跃连接”(skip connection)解决了深层网络中的梯度问题,使得极深网络成为可能,其结构成为现代神经网络的基石。
-
高维直觉的颠覆:
- 毕树超提到,统计学背景曾让他对深度学习的非凸优化和过参数化问题深感困惑。然而,在高维空间中,局部最优解变得更容易逃脱且质量接近全局最优,过参数化也非“bug”而是“feature”——“双下降现象”表明,模型在过参数化后反而能找到泛化性更强的解。这些突破性的认知,彻底改变了传统数学直觉的限制,为大模型的无限扩展铺平了道路。
-
Transformer的里程碑(2017至今):
- Transformer架构(2017)的出现是近十年AI领域最重要的突破之一。它完全基于自注意力机制,消除了循环依赖,实现了前所未有的并行训练能力和扩展性。这一架构是ChatGPT等一切生成式AI模型的基石。
- GPT系列模型(2018-2020)的迭代,展现了GenAI的“通用性”本质——模型可以通过零样本或少样本学习完成多样化任务,彻底颠覆了以往“每个领域一个专用模型”的低效模式。
规模法则的哲学:理解“涌现”与智能的本质
2020年,OpenAI提出的**Scaling Law(规模法则)**揭示了一个惊人的规律:算力、参数量和数据量每增加十倍,模型的损失函数就线性下降。这一规律精准预测了GPT-4的性能,并预示着在触及天花板前,高达10万亿美元的算力投入仍将持续获得回报。这与“The Bitter Lesson”的观点不谋而合——在长达70年的AI发展史中,算力与数据规模的“暴力碾压”,往往比人类精巧设计的算法更为有效2。
毕树超进一步深化了对“规模法则”的理解,将其与数据分布的幂律曲线(Power Law)相关联。他指出,智能的分布并非均匀,而是像顶尖医生解决罕见病与普通医生处理常见病一样,呈现出头部集中、长尾拖拽的特点。模型的能力“涌现”,并非真正的“顿悟”,而是在算力突破临界点后,模型能够捕捉到数据长尾中更为稀有的高阶模式。这仅仅是一个视角问题,而非突然发生的奇迹。
从更深层次看,毕树超认同“预测即压缩,压缩即理解”的观点。无论是香农信息论中对“信息”的定义,还是人类认知科学中将物理定律、数学公理总结为“最小规则集”的过程,“压缩”都是理解和智能的核心逻辑。大语言模型预测下一个词,本质上是在压缩语言中的模式,这与人类通过归纳总结来理解世界的方式异曲同工。
强化学习的临界点:从游戏到现实世界AGI的桥梁
强化学习(RL)在AI发展中扮演了独特的角色,其崛起同样伴随着从游戏到现实应用的飞跃:
-
初期突破与瓶颈(2015-2019):
- DQN(2015)在雅达利游戏中展现出超越人类的“外星智能”。
- AlphaGo(2016)击败围棋世界冠军,结合了深度神经网络、自我博弈和蒙特卡洛树搜索,首次让世人感受到“模型真的有智能”。
- AlphaGo Zero(2017)完全脱离人类棋谱,纯粹通过自我对弈训练,展示了纯粹机器智能的巨大潜力。随后推广到《星际争霸》等复杂电子游戏。
- 然而,这股热潮一度退却,因为人们发现RL在“打游戏”之外,缺乏实际应用价值。
-
与预训练模型的融合:
- InstructGPT(2022)和ChatGPT(2022)的成功,标志着强化学习与预训练模型结合的新时代。特别是人类反馈强化学习(RLHF),使得大模型能够更好地理解和执行人类指令,极大提升了交互能力和实用性。ChatGPT短短数月内用户量突破5亿,证明了这一融合范式的巨大商业价值。
毕树超指出,目前强化学习在整个AI模型训练中,所占计算资源比例仍然很小,如同“蛋糕上的樱桃”。然而,要构建真正的AGI乃至ASI,强化学习必须发挥更大作用,尤其是在适应未知环境和生成新知识方面。他强调,AI发展的“第二阶段范式”将是预训练与**高计算量强化学习(High-compute RL)**的真正结合,以显著增强模型的“个体学习”和“搜索探索”能力。开源的DeepSeek R1在数学基准上的表现超越特定闭源模型,也印证了这种新计算范式的潜力。
AGI时代前夜:产业重塑与人类命运的交响
毕树超的洞察不仅是技术原理的深刻剖析,更是对AI未来发展路径的强力预测。他所预见的“2025,AGI已来”并非空穴来风,而是基于对数据生成、算力投入、算法架构以及强化学习范式的综合判断。这意味着:
- 商业模式的重塑:未来的AI应用将不再局限于现有模型所能触达的范围,而是能够通过“经验生成”不断拓宽边界,创造出新的服务和产品形态。“高算力RL”将成为投资热点,驱动新的计算范式和商业机遇。
- 产业生态的深刻变革:Meta等科技巨头对“超级智能团队”的投入,预示着AGI竞赛已进入白热化阶段。这场竞赛将不仅仅是模型规模的较量,更是数据生成、RL策略和算力基建的全面比拼。
- 社会影响的广度与深度:当机器能够通过自我交互不断生成新知识、新能力时,人类获取信息、学习知识、甚至定义智能的方式都将发生根本性改变。“智能并非人类独有”这一观念的普及,将引发更深层次的伦理、哲学和社会讨论,关于AI治理和安全的重要性将愈发凸显。
- 创新边界的拓展:毕树超的最后一句话“每隔几个月,我们就看到一些曾经被认为不可能的事情成为现实。这应该让我们重新审视所有我们仍然认为不可能的事情”,正是一种充满未来主义色彩的呼唤。它暗示着,在AGI的浪潮下,人类的认知边界将被一再突破,许多当前看似遥不可及的科学和技术难题,或将通过机器的自主探索而迎刃而解。
综上,毕树超的发言不仅是技术演进的编年史,更是一份对AGI时代即将到来的宣言。它提醒我们,当前AI的发展已突破了传统的工程范畴,进入了一个融合了数学、哲学、信息论和神经科学的全新阶段。理解这一范式转变,把握其核心驱动力,对于个人、企业乃至整个社会而言,都至关重要。