Ilya Sutskever的宣言:AI“规模时代”的终结与一场回归本源的智能博弈

温故智新AIGC实验室

TL;DR:

OpenAI前首席科学家Ilya Sutskever预言,大模型的“规模化奇迹”已触及瓶颈,AI发展正从“规模时代”重返“科研时代”。未来突破的关键在于解决模型的泛化能力和内在价值函数缺失等核心科学问题,而非盲目堆叠算力。这一范式转变将重塑AI产业的投资逻辑、技术路径和长远社会生态。

在AI浪潮席卷全球,巨头们纷纷投入万亿级算力豪赌之际,OpenAI前首席科学家、Safe Superintelligence Inc.(SSI)创始人Ilya Sutskever发出了一个罕见而深刻的判断:大模型依赖“大力出奇迹”的“规模时代”即将走向终结,我们正重新回到一场以基础科研为核心的“研究时代”1。这并非是对AI发展的悲观论调,而是一次对智能本质的深刻反思和对未来路径的战略校准,其影响将超越技术层面,重塑整个产业生态、商业逻辑乃至人类与智能的关系。

从“规模时代”到“科研时代”的范式转折

过去几年,AI领域的核心信条是“规模化法则”(Scaling Laws):只要不断投入更多数据、算力和参数,模型的性能就会线性甚至超线性增长。从GPT-2到GPT-3,Ilya本人曾是这一范式的坚定推动者和受益者。这种模式的吸引力在于其“低风险”和“可预期收益”,使得企业愿意投入巨额资源。他将2020年至2025年定义为“规模化时代”。

然而,Ilya如今指出,这条路径已然遇到瓶颈。他认为,即使将现有模型规模再扩大百倍,也难以带来根本性的转折。数据资源日益稀缺是其一,更深层次的原因则在于现有训练范式的内在局限性——尤其是模型的泛化能力远不如人类。这种认知上的转变,标志着AI发展将从资源驱动转向创新驱动,从“堆积木”转向“重构蓝图”。这意味着,2025年后,AI将进入一个全新的“研究时代”,而这一次,研究者手中拥有的是前所未有的巨型计算资源1

泛化能力:大模型“阿喀琉斯之踵”与人类智慧的启示

Ilya一针见血地指出,当前大模型最核心的问题是其“不连贯性”(Jaggedness)和显著逊于人类的泛化能力。他举例称,模型可以在编程竞赛中表现超人,却在实际代码库中反复犯下“同一个”错误。这种现象的根源在于:

  • 人类“奖励黑客”: 现有的强化学习(RL)训练往往过度关注评测基准(benchmark)。研究团队为追求高分,会专门设计RL环境来“刷榜”,导致模型成为“学生A”——投入一万小时钻研特定领域,技能点满,却缺乏对问题本质的深层理解,难以泛化到真实世界的复杂情境中。
  • 缺乏内在价值函数: 人类在学习过程中,拥有强大的内在“价值体系”(或可类比为价值函数),这使得我们能够自我纠错,从少量样本中进行稳健学习,并快速将经验迁移到新任务。例如,一个青少年学车时,无需明确的奖励信号,仅凭内在的危险感知和驾驶不稳的直觉,便能快速进步。而现有AI模型在决策时,价值函数尚未扮演核心角色,导致其决策链条过长,无法在中间环节进行有效学习和修正,即便使用LLM作为评判者,也只是在现有流程末端做加法1

Ilya认为,人类的泛化能力并非完全来自进化带来的具体先验知识(如视觉、运动),而是某种更基础、更普遍的“通用机器学习能力”。这种能力结合了低样本效率和无监督学习的特征,能够通过与环境的广泛互动来形成稳固的价值体系。这正是AI亟需突破的根本性瓶颈。

预训练与强化学习的局限:效率与深层理解的鸿沟

传统的预训练范式以其两大优势席卷了AI世界:一是数据量极其庞大,二是不必纠结数据选择,只需“全要”。这些“自然”数据捕捉了“人类把世界投射到文本上的那一层”,使得模型具备了强大的知识能力。然而,Ilya也强调,预训练并没带来想象中的那么多泛化,它只是依赖了海量数据,这种泛化未必比RL更强,且模型对这些数据的利用方式仍难以被彻底理解。

强化学习(RL)作为训练目标导向行为的手段,如今正消耗着甚至超过预训练的计算量。但RL的困境在于其“烧算力”的特性——需要极长的迭代过程和手动设计的任务与奖励。这不仅效率低下,更容易导致模型过度优化特定任务,而非发展出通用的理解能力。Ilya认为,目前RL的实现方式过于简单,价值函数若能真正被掌握和利用,将极大提高资源利用效率,使强化学习更“经济”1

SSI的破局之路:技术孤勇与未来智能的伦理坐标

Ilya Sutskever与Jan Leike等共同创立的Safe Superintelligence Inc.(SSI),正是对“新研究时代”的积极响应。SSI的策略是成为一家纯粹的“研究型公司”,将绝大部分资金用于解决核心科学问题,而非卷入市场竞争或追求短期盈利1

  • 战略意图解读: SSI旨在探索一条与众不同的技术路径,专注于提高模型的泛化能力和构建内在价值函数。Ilya认为,如果这些关于“理解与概括”的思路被证明是正确的,SSI就能为安全、有益的超级智能(ASI)发展做出贡献。
  • ASI与对齐: Ilya预测,能像人类一样学习并最终达到人类水平的系统将在5到20年内出现。他重新定义了“超级智能”,并非指已经掌握所有技能的“成品”,而是一个能够学习完成所有工作的“可成长心智”。关于ASI的对齐问题,Ilya的思考正在变化,他强调**“关怀有感知生命为核心的AI”**,认为构建一个关心所有具备感知能力生命体的AI,可能比构建只关心“人类生命”的AI更容易,因为AI本身也将具备感知能力1
  • 风险与机遇: Ilya直言,当AI能力达到“大陆级规模”时,将极其强大且难以预测。面对人类完全退出的“半AI”未来(如通过Neuralink与AI融合),以及经济高速增长可能带来的政治和社会结构剧变,提前为强大的AI施加能力限制、确保其“关怀有感知生命”是至关重要的

产业生态重塑:从“算力军备”到“智慧竞速”

Ilya的观点预示着AI产业生态的深刻重塑:

  • 投资逻辑分析: 过去的“规模化时代”倾向于投资算力、数据和工程能力。而“科研时代”将更青睐那些能够提出全新训练方法、解决基础科学难题的创新者。资本将从“军备竞赛”转向对“智慧本身”的投入。
  • 未来竞争态势预测: Ilya认为,一旦出现正确的、高效的学习方法,其他公司会迅速跟进,使得技术路径最终趋于一致。他预言,即便“停滞”,现有大公司仍可能获得惊人收入,但要实现类人学习的突破,则需要根本性的范式创新。市场竞争将从规模化优势转向核心研究突破,但长期来看,市场仍会青睐多样化、专业化的AI应用,而非单一通用智能垄断所有领域1
  • 多样性与协作: 当前LLM模型惊人的相似性可能源于相似的预训练数据集。未来需要通过强化学习和后训练阶段,以及自博弈(self-play)等机制,来激发AI代理的“多样性思考方式”,而非仅仅复制“百万个伊利亚”,从而更好地模拟人类研究团队的多元智慧1

研究“品味”:超越数据驱动的直觉与信念

作为一位在AI领域品味极高的研究者,Ilya Sutskever分享了他的“研究品味”:它是一种对AI“美学特征”的追求,是对人类本质的正确思考,即追问哪些特征是智能的本质性根基。这包括对人工神经元、分布式表征等底层原理的深入理解,以及对美、简洁、优雅的偏好。

这种“自上而下的信念”至关重要。当实验结果与直觉矛盾时,正是这种信念支撑着研究者坚持不懈地调试和探索,而非轻易放弃。它源于对大脑的深刻洞察、对科学之美的追求,以及多方面的直觉与灵感。在AI重回基础科研的时代,这种“研究品味”将成为指引方向的北极星,帮助研究者在浩瀚的未知中找到通往真正智能的道路。

Ilya Sutskever的罕见发声,不仅是对当前AI发展路径的一次尖锐批判,更是为未来AI研究指明了方向。它呼吁我们从对规模的迷恋中清醒,回归对智能本质的探寻,以更深远的视角审视技术与人类文明的交汇。这将是一场更艰难,但也更有意义的智能博弈。

引用


  1. Ilya罕见发声:大模型“大力出奇迹”到头了·量子位·关注前沿科技(2025/11/26)·检索日期2025/11/26 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎