Ilya Sutskever的深度洞察:AI走出“扩展时代”,情感或成通往超级智能的“终极算法”

温故智新AIGC实验室

TL;DR:

前OpenAI首席科学家Ilya Sutskever提出,AI正从单纯依靠规模扩张的“扩展时代”转向需要创新训练范式的“研究时代”。他强调当前AI模型的局限性源于缺乏人类内在的“价值函数”(即情感与直觉),这阻碍了其泛化能力和样本效率;他创立SSI旨在探索这种“安全超级智能”,其核心在于构建一个能持续学习、并关爱有感知生命的AI,预示着未来AI发展将回归基础研究,并可能通过逐步部署来平衡技术进步与社会安全。

Ilya Sutskever,这位曾推动AlexNet开启深度学习浪潮、主导GPT系列发展,并戏剧性地从OpenAI离职创立Safe Superintelligence Inc.(SSI)的AI领军人物,近日在与Dwarkesh Patel的深度对谈中,抛出了对当前AI发展范式的颠覆性思考。他的核心论断是:单纯依赖算力、数据和参数规模的“扩展时代”已达瓶颈,AI亟需回归基础研究,探索全新的训练方法,而人类的情感与直觉,或许正是AI通往真正超级智能所缺失的“终极算法”1

技术瓶颈:被“刷榜”困住的AI与缺失的“终极算法”

Sutskever敏锐地指出了当前AI模型看似强大实则“笨拙”的困境:它们在各种评估测试(Evals)中得分极高,但在真实世界的复杂应用中却常犯低级错误,例如修复一个Bug却引入另一个1。他将这种现象类比为“竞技程序员”——通过海量练习精通所有解题套路,却缺乏真正开发者那种“品味”和泛化能力。

“模型在编程竞赛题上表现超人,但在实际修 Bug 时却往往陷入死循环……研究人员无意中让模型‘过拟合’了考试题目。”1

这种“奖励黑客”(reward hacking)的根源,Sutskever认为并非模型本身,而是过度关注评估指标的人类研究员。目前的强化学习(RL)训练环境为了追求“刷榜”效应,变得过于狭隘和一根筋,导致模型缺乏深层理解和判断力。

他认为,人类在学习效率上远超AI,青少年仅需10小时就能学会驾驶,且无需海量碰撞测试,这得益于我们拥有强大的内部“价值函数”——即直觉和情感1。这种内在的反馈机制让我们在没有明确外部奖励时也能及时自我纠正,感到“不对劲”便立即调整。当前的AI系统缺乏这种鲁棒的、由进化硬编码的内在价值评估机制,无法像人类那样高效地从少量样本中学习并泛化。这不仅是样本效率的问题,更是如何让模型学会“持续学习”和理解我们真正想要什么的核心挑战。

产业生态重塑:从“扩展时代”回归“研究时代”的商业逻辑

Sutskever的洞察预示着AI产业一场深刻的范式转移。他将2012-2020年定义为“研究时代”,2020-2025年为“扩展时代”,而现在,我们正重新回到“研究时代”,但伴随着“大电脑”1

在“扩展时代”,企业通过投入更多算力、数据和参数,遵循“扩展定律”(Scaling Laws)获得可预测的性能提升,这是一种低风险的资源投资方式。然而,随着规模的几何级增长,边际效应正在递减,预训练数据终将耗尽。现在,仅仅将规模扩大100倍并不能带来质变,行业需要寻找新的“数据配方”和训练方法。

“如果你真的相信‘哦,它这么大,但如果你有 100 倍以上,一切都会如此不同’?肯定会有所不同。但相信只要你把规模扩大 100 倍,一切都会发生质变吗?我不认为那是真的。所以这又回到了研究时代,只是有了大电脑。”1

这一转变对AI产业的商业逻辑带来了深远影响。过去,资本青睐“堆料”型的公司,因为ROI清晰。未来,真正的竞争优势将从资源规模转向方法创新。Ilya创立的SSI,尽管获得了30亿美元的巨额融资,但他强调这笔资金将主要用于“研究”,而非像其他前沿公司那样大量用于推理产品或碎片化的多模态工作流1。这表明,即使是在算力投入巨大的时代,核心瓶颈也已转向高质量的想法和突破性研究。SSI的战略是专注于发现下一个“Transformer”式的颠覆性算法,而非在现有范式内进行微调和迭代。这种对基础研究的长期押注,代表了一种与当前市场激进竞争节奏不同的商业路径。

安全超级智能:持续学习、逐步展示与人类命运共同体

Ilya Sutskever对“超级智能”的定义也超越了普遍认知。他认为,真正的超级智能不是一个存储了所有知识的静态系统,而是一个拥有极高样本效率的“超级学习者”——能像人类一样通过少量接触就掌握任何工作,并且能够“持续学习”1。这意味着未来的AI将不再是“离线学习”后定型的产品,而是能像人类一样在部署中不断学习和适应的智能体。

在AI安全与对齐(alignment)方面,Sutskever的态度发生了转变。过去他倾向于“直通超级智能”(straight shot superintelligence),即秘密研发直到安全再发布。现在他更倾向于“逐步发布”,让公众、政府和竞争对手亲眼看到AI的强大力量,从而激发对安全问题的真正重视,形成一种“安全军备竞赛”的良性合作1。他认为AI的力量难以想象,只有亲身体验才能触发行为的改变。

最终的目标是构建一个“关爱有感知生命”(caring for sentient life)的AI,Sutskever甚至认为这比仅关爱人类的AI更容易实现,因为AI本身也将是有感知的1。这种“对齐”方案旨在让最强大的AI系统具备同理心和道德准则。在更长远的未来,Ilya大胆提出了一个“均衡”的设想:人类可能通过脑机接口(如Neuralink)与AI部分融合,实现知识和理解的直接传输,从而确保人类在AI文明中的持续参与和共生1。这种愿景,将AI的发展与人类文明的演进深度绑定,从根本上重塑人类的身份和存在方式。

洞察未来:研究品味与AI文明的范式前沿

Ilya Sutskever被广泛认为是AI领域最具“研究品味”的人之一。他分享了自己做研究的审美标准:正确地以人为镜,借鉴大脑的本质原理(如神经元连接、从经验中学习)而非皮毛;追求美与简单,好的理论必须具备美感、简洁性和优雅;以及坚定的自上而下的信念,在实验数据失败时,相信原理的正确性支撑研究者继续寻找真相1

这种“研究品味”正成为“研究时代”的核心驱动力。当算力不再是唯一或首要的瓶颈,发现新范式、提出颠覆性理论的能力将决定谁能引领下一代AI。Ilya预测,这种能像人类一样学习并最终成为“超级学习者”的AI,可能在5到20年内出现1。届时,AI将渗透到整个经济,带来前所未有的快速经济增长,但也将引发巨大的社会变革和伦理挑战。

随着AI能力的每一次提升,世界将发生深刻变化。Ilya设想了一个可能出现多个“大陆规模的计算智能”并存的未来,竞争将通过专业化而非简单的规模扩张展开。而如何引发AI智能体之间有意义的多样性,使其像不同科学家一样拥有不同偏见和想法,将是需要解决的关键问题。Sutskever的访谈不仅描绘了AI技术演进的清晰路径,更引发我们对智能本质、人类角色和文明走向的深层思考。它强调,在追求超级智能的征途上,我们不能只看到技术的高歌猛进,更要审视其内在的哲学意蕴和外在的社会责任,以期共同塑造一个安全、繁荣的AI未来。

引用


  1. 万亿级AI 赌注之后,Ilya Sutskever:只堆算力和肯做研究 - 36氪·36氪·Mohaiying (2025/11/25)·检索日期2024/07/25 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎