超越架构:互联网如何重塑AI范式与塑造AGI的未来

温故智新AIGC实验室

TL;DR:

前OpenAI核心研究员Kevin Lu的离职,及其“真正推动AI进步的是互联网而非模型架构”的论断,揭示了AI发展正从算力与模型红利转向数据与生态驱动的新范式。这不仅是技术路线之争,更深远地预示着AI商业化路径的重塑、AGI伦理对齐的复杂性,以及未来智能体与人类文明交互的深层演进。

OpenAI人才流失的潮汐中,前GPT-4o mini华人领队Kevin Lu的离职,并在由前OpenAI CTO Mira Murati创立的AI新星Thinking Machines Lab获得惊人的20亿美元早期融资(估值120亿美元)的背景下加盟,无疑为AI产业投下了一颗重磅石子。然而,更具深远意义的,是他抛出的核心论点——“真正推动AI进步的不是模型架构,而是互联网”1。这一观点不仅挑战了长期以来业界对AI核心驱动力的认知,更从技术、商业、社会和哲学层面,重新定义了我们对AI未来走向的理解。

技术思辨:从“计算受限”到“数据受限”的范式跃迁

Kevin Lu的洞察直指AI发展的核心瓶颈。他指出,尽管Transformer等架构创新带来了AI的飞速进步,但当前的AI领域已然从“计算受限”(compute-bound)阶段迈入“数据受限”(data-bound)阶段。在计算受限时期,更高效的模型架构(如早期Transformer优于RNN/CNN)能带来显著性能提升;然而,进入数据受限阶段,模型的“见识”受限于可获取数据的广度与深度,单纯的架构优化效益递减,甚至可能“在给定训练算力下,训练一个Transformer往往能得到更优性能”1

“与其反复抠架构,不如扩大、丰富、贴近现实的数据来源(如互联网)与数据消耗方式,否则模型始终‘见得少、懂得少’。”1

他将“互联网”视为实现AI模型规模化扩展的关键技术。互联网提供了海量的、按序相关的数据,天然适配“下一个token预测”(NTP)范式,二者形成了一种“对偶”关系。从AlexNet对ImageNet的“消化”,到GPT-2学习互联网文本,再到GPT-4o等原生多模态模型吸收互联网的图像与音频,每一次AI里程碑式的进步,本质上都是在开辟新的数据消耗途径。这表明,数据不仅仅是模型的“食粮”,更是定义其能力边界和涌现特性的核心要素。

商业敏锐:人才的流动与AI独角兽的投资逻辑

Kevin Lu的加盟,以及Thinking Machines Lab高达120亿美元的早期估值,清晰地描绘了当前AI产业的商业热度与投资逻辑。这并非孤例,而是OpenAI“人才外溢”效应的缩影。据统计,从OpenAI出走的核心成员已催生了至少七家估值不菲的独角兽公司,包括Mira Murati的Thinking Machines Lab、Ilya Sutskever的SSI(估值320亿美元)2、AI搜索引擎Perplexity、AI助手Adept AI Labs以及AI客服Cresta等2

这种人才的流动与新公司的崛起,反映了资本市场对AI核心人才及其前瞻性技术路线的押注。Thinking Machines Lab专注于构建支持“人类-AI协作”的模型和产品2,这与Kevin Lu强调的“用户持续供数”以及“产品与研究协同设计”的理念不谋而合。投资方如a16z、英伟达、AMD等的入局,不仅仅是看重技术潜力,更看到了围绕“数据飞轮”和“产品市场契合”(PMF)构建新型商业模式的巨大潜力。未来的竞争,将不再是单纯的模型参数竞赛,而是谁能更高效、更具创新性地获取、处理和利用“行星级”数据,并将其转化为用户价值

社会影响:互联网作为AGI的“底座”与伦理平衡

Kevin Lu的观点为AGI的社会影响和伦理治理提供了全新视角。他将互联网比作“人类的映射”,一个去中心化、多样化的知识源泉。这种“行星级”的数据不仅蕴含了人类广博的知识、文化模因和低资源语言,更关键的是,它呈现了一种“天然课程”,通过用户持续贡献与互动形成。

更为深刻的是,互联网的这种多样性,对于AI的“对齐”(Alignment)至关重要。Kevin Lu引用的研究表明,为了训练出“对齐”的模型,必须同时在对齐与未对齐数据上进行预训练,因为预训练会学习到二者之间线性可分的方向。例如,包含10%有毒数据并进行人工引导的模型,反而比纯净数据训练的模型更“不毒”1。这提供了一个颠覆性的伦理思考:移除所有“不良”数据可能导致模型无法理解“什么是错的”,从而无法真正实现与人类价值观的对齐。

因此,互联网的管理者(即产品“管家”)对AGI的设计举足轻重。若削弱互联网的多样性,或随意删除数据,AGI中可能被抹去整个亚文化。这提示我们,AGI的“善恶观”和“世界观”将直接受到其训练数据源的塑造,而互联网的开放性与包容性,是未来AGI实现普惠性智能的关键。

未来展望:强化学习的“对偶”探索与AI范式演进

Kevin Lu的论述也抛出了一个悬而未决的问题:如果说互联网是“下一个token预测”的完美“对偶”,那么“**强化学习”(RL)的“对偶”又是什么?**目前,RL在游戏、自动售货机、用户留存/利润/参与度优化等狭窄领域显示出巨大潜力,但如何将其“升格”为一种多样化、可扩展的奖励宇宙,从而引发范式级跃迁,仍是AI研究面临的巨大挑战。

这暗示了AI领域的下一个重大突破,可能不再是单纯的算法或模型架构创新,而是围绕强化学习打造具备“多样性、天然课程、产品市场契合、经济可行性”特性的全新“产品”和数据生态。这意味着未来的AI研究将更紧密地与现实世界的产品应用结合,通过产品交互产生可规模化、高质量的奖励信号

总之,Kevin Lu的观点代表了AI领域一种重要的范式转移。它促使我们从仅仅关注模型内部机制,转向更宏观地审视数据作为核心资源、互联网作为“行星级”训练场、以及产品作为数据收集和价值实现载体的全链路生态。未来的AI发展,尤其是通往AGI的道路,将是技术、商业、社会、伦理多维度深度融合的产物,其形态和能力将由我们今天如何构建和管理互联网这一“人类数字映射”所决定。

引用


  1. GPT 4o-mini华人领队离开OpenAI:真正推动AI进步不是模型架构,而是互联网·新智元·新智元(2025/8/19)·检索日期2025/8/19 ↩︎ ↩︎ ↩︎ ↩︎

  2. 从OpenAI 出走的前员工,已经造就了7 个独角兽公司!·21财经·IT桔子(2025/8/11)·检索日期2025/8/19 ↩︎ ↩︎ ↩︎