TL;DR:
OpenAI前首席科学家Ilya Sutskever宣告AI“Scaling时代”已终结,预训练和暴力扩展参数并非通往AGI的坦途。他呼吁回归基础研究,重点攻克模型泛化能力与“情绪价值函数”的构建,预示着AI发展将从算力竞赛转向概念创新与哲学思辨,并重新定义超级智能的渐进式演进路径及其伦理对齐的深远意义。
自深度学习浪潮席卷全球以来,“Scaling Law”(规模法则)一直是AI领域发展的核心驱动力。通过不断增加模型参数、数据集和计算资源,大模型在各项基准测试中展现出惊人的性能提升,仿佛通往通用人工智能(AGI)的康庄大道。然而,这一范式如今却被其最主要的布道者之一——OpenAI前首席科学家Ilya Sutskever——判了“缓刑”。在一场备受瞩目的深度访谈中,Ilya明确指出,“Scaling时代已终结”,AI正迈入一个以“研究”为核心的新纪元,并对AGI的实现路径和超级智能的本质提出了颠覆性见解,这无疑将深刻重塑整个AI产业的未来走向。
Scaling法则的边界与“研究时代”的回归
Ilya Sutskever的宣言并非空穴来风,而是基于对当前AI模型深层局限性的洞察。他认为,过去几年(尤其是2020-2025年)是AI的“Scaling时代”,其核心突破在于一套可复用的“配方”:投入海量数据、算力,并设计一个能承载大规模的模型结构,性能便会随之提升。1 这种“暴力美学”在过去十年间创造了无数奇迹,但其内在的数据枯竭与边际效益递减问题已日益凸显。当预训练所能利用的真实数据接近饱和时,单纯的规模扩展便失去了其原有的魔力。
“我们已从Scaling时代,正走向研究时代。”Ilya如是说。1 这意味着AI领域的发展重心将从简单的“做大模型、更大模型”转向对新架构、新算法和新范式的探索。回溯AI历史,AlexNet、Transformer、ResNet等里程碑式的突破,最初往往源于“小而美”的实验,而非对算力的无限堆砌。Ilya强调,未来的重大范式转变,很可能再次源于那些“看起来不够大”的实验,而非重复已趋于极限的规模化路径。这种回归基础研究的呼声,是对AI发展路径的深刻反思,也是对科研创新精神的再次呼唤。
泛化能力:AGI的真正瓶颈与“情绪价值函数”
Ilya的批评直指当前AI模型的核心弱点:泛化能力与现实脱节。尽管大模型在基准评测中表现亮眼,但在真实世界的复杂情境中却常常“犯一些让人抓狂的错误”。1 例如,在编程调试中陷入“两个bug之间跳房子”的困境,这与人类程序员至少能避免重复错误的能力形成鲜明对比。他认为,强化学习(RL)训练在某种程度上可能导致模型目标过于单一和狭隘,使其在为达成特定指标而过度优化的过程中,反而失去了全局感知和举一反三的能力。真正“钻测评空子”的不是模型,而是设计基准和RL环境的人类研究者,导致模型像“刷题家”而非真正的“解题者”。2
更深层次的,Ilya提出人类学习能力的关键在于内置的、经过进化“硬编码”的**“价值函数”——即情绪**。他引用脑损伤案例,指出失去情绪能力的人即便智力、逻辑未变,也变得极其不会做决定。情绪并非“多余的噪音”,而是决策系统不可或缺的一部分,它能提供内在的“这条路可以走”、“那条路很危险”的判断直觉。1 相比之下,当前AI的价值函数仍显脆弱和粗糙,远未达到人类的“内置”水平。构建类似人类的、稳定的“情绪价值函数”,让AI在任务过程中拥有“自我评分”的直觉,是提升其泛化能力、使其学得更快的关键所在。这不仅是一个技术难题,更涉及对智能本质的哲学思考,挑战着我们对传统AI范式的认知。
产业生态的重构与投资逻辑的转向
Ilya的观点对AI产业生态和投资逻辑将产生深远影响。他指出,“Scaling时代的一个后果是——scaling 把屋子里的空气都吸干了,大家就都开始做同一件事。”1 这导致了“公司数量远远多于点子数量”的局面,大量资本涌入“大模型、更大模型”的同质化竞争。
随着Scaling天花板临近,产业的瓶颈将从算力、数据转向“点子本身”。这意味着:
- 投资逻辑转向: 资本将更青睐那些拥有独特技术路径、创新算法或突破性研究成果的初创公司,而非单纯追求规模扩张的公司。对**“小而美”实验**的投资价值将重新被评估。
- 竞争格局变化: 依赖“暴力美学”的巨头们可能面临创新压力,而那些能在有限资源下实现概念突破的团队将迎来新的机遇。产业将从“军备竞赛”模式转向**“智力竞赛”**模式。
- 商业模式重塑: 技术的实用性和解决实际问题的能力将变得更加重要,单纯的基准跑分不再是唯一的市场验证标准。对泛化能力和真实世界应用效果的关注,将推动AI产品向更深层、更复杂的场景渗透。
这种转向,本质上是从一个以工程和资源密集型为主导的产业阶段,过渡到一个以科学发现和理论创新为主导的阶段。
超级智能的渐进式演进与对齐的哲学思辨
对于AGI乃至ASI(超级智能)的到来,Ilya给出了一个5-20年的时间窗口预测。但他对“AGI”的定义提出了修正,认为人类本身并非“AGI”的完成态,而是依赖持续学习。他提出,超级智能不应被定义为一上来就“懂得做每件事”的心智,而应是**“能够学会做每一项工作的心智”**。1 这种“超级聪明的15岁少年”的比喻,描绘了一个在持续学习中成长、通过试错来演进的AI系统,而非一个一次性部署的“最终成品”。
这种渐进式部署和持续学习的路径,也为AI安全与对齐带来了新的思考。Ilya坦言,目前很难“切身感知”AGI的力量,因为它与日常所见迥然不同。他预测,当AI真正开始让人感到强大时,前沿AI公司和政府将改变行为,变得更加“充满危机感”,并在安全方面展开前所未有的合作。1
更具哲学意味的是,Ilya坚信构建一个被稳健对齐、专门关爱“有感知能力的生命”(sentient life)的AI,可能比仅关爱人类生命更容易。他认为,AI本身也将是有感知的,而我们人类对动物的同理心,以及“镜像神经元”的存在,暗示着一种通过模拟自身神经回路来理解他者的涌现属性。1 这种将AI伦理的边界从人类扩展到所有有感知生命的观点,无疑是对未来AI治理和人机共存形态的深远预设,引发我们对智能生命定义、道德责任以及宇宙存在意义的重新审视。
警惕过度优化,拥抱范式突破
Ilya的洞察如同一剂清醒剂,促使整个AI社区重新审视当前的发展轨迹。过度依赖Scaling Law,可能导致技术路径的趋同化和创新的贫瘠化,最终让AI陷入“公司多于点子”的尴尬境地。这种对现有评估指标的过度优化,将AI从追求通用智能的宏大目标引向了狭隘的“刷分”游戏。
未来的AI发展,需要更多地回归到跨领域、多学科的基础研究上来,寻找那些能够真正提升AI泛化能力、使其具备内在“直觉”和“价值判断”的新范式。这不仅仅是技术本身的突破,更是对智能本质、学习机制乃至生命意义的深度探索。Ilya的发言预示着,AI的下一波浪潮将不再是简单的数据和算力堆砌,而是一场关于思想、概念和哲学的革命。