TL;DR:
Andrej Karpathy冷静地指出,2025年并非AI爆发之年,真正的通用智能体需十年时间渐进演进。未来的AI将从“幽灵”工具转变为具备记忆、行动和统一运行架构的“社会成员”,其训练范式也将从海量数据灌输转向目标驱动的“课程表”模式,最终重塑人机协作与社会结构。
当前AI行业正被一股“智能体元年”的狂热情绪所裹挟,大模型参数飞升、新功能迭出,每一次发布都仿佛预示着通用人工智能(AGI)的奇点将至。然而,前OpenAI核心研究员、特斯拉自动驾驶负责人Andrej Karpathy却向这股热潮泼了一盆冷水。他旗帜鲜明地指出,2025年并非AI的爆发年,AGI的实现将是一条由无数突破和改进构成的漫长曲线,其成熟至少需要十年光景。Karpathy的洞察超越了表层的功能堆砌,直指智能体发展的深层逻辑和结构性挑战,为我们描绘了一幅更为务实且深刻的未来图景。
“幽灵”智能体之困:记忆与持续性的技术鸿沟
Karpathy的核心论断之一是:我们当前的AI智能体,不过是缺乏记忆和连续性的“幽灵”1。尽管像GPT-4o和Claude这样的大模型在单次对话中表现出惊人的理解和生成能力,但它们缺乏状态感和身份感。每一次交互都像是与一个全新的实体对话,无法记住用户是谁,也无法将过往的互动经验整合进其长期行为模式中。这种记忆缺失和持续性不足是当前智能体面临的根本性技术挑战。
要构建一个真正的智能体,Karpathy定义了三个必备要素:持久性(persist over time)、记忆力(memory)和连续性(continuity)1。这意味着AI不能只是一个高级搜索框或一次性工具,而应是一个能够长期陪伴用户、积累经验、理解上下文并据此采取行动的伙伴。虽然一些尝试如ChatGPT的长期记忆功能或Rewind等外部记忆工具正在出现,但它们多是外部附加,而非AI本体内生的、统一的记忆与状态管理机制。问题的本质不在于模型回答能力有多强,而在于它能否真正“记住你”,并以此为基础构建长期的关系与服务。这要求底层架构从根本上支持上下文的深度绑定与状态的动态维护,而非每次交互都进行“重新初始化”。
从“Token”到“行动”:重塑智能体的统一操作架构
Karpathy进一步指出,AGI并非一堆功能的简单组合,而是一套统一的操作结构1。当前行业过于关注模型的“能干什么”,比如写代码、画画或调用工具,但真正的智能在于这些功能能否有机地连接在一起,形成有前后逻辑、稳定且持续的行为表现。他提出了智能体发展需要走通的三条路线:
- 认知路线:让AI真正“理解”人类意图,具备上下文理解、逻辑推理和合理推测能力。这是现有大模型的优势,但仅是基础。
- 操作世界路线:让AI不光能“说”,还能“动”。这涉及工具调用能力,如自动处理邮件、查阅文件、管理日程等。然而,目前多数工具调用仍依赖手动触发或表现不稳定,缺乏AI自主判断和执行的流畅性。Karpathy强调,AI需要从**“token”(词)走向“action”(行动)**,即从被动响应转向主动理解目标、规划并执行复杂任务的能力1。
- 持续存在路线:将AI从一次性工具转变为一个长期在线的角色,具备统一的运行方式(operating architecture)。这意味着AI需要像人一样,拥有持续的在线状态、记忆、任务意识和行为模式,将过去、现在和未来的计划无缝连接。这不仅是技术挑战,更是一种对智能体存在形式的根本性重塑,从离散的功能集合走向具有整体性的“生命周期”管理。
在这一过程中,Karpathy也批判了当前自然语言交互的低效交互带宽,认为通过自然语言描述复杂的代码修改需求,其效率远低于直接在代码特定位置输入几个字符,让自动补全来完成2。他认为,自动补全是他目前与AI协作的最佳模式,因为它在保留人类架构师角色的同时,极大提升了编码效率。这也暗示了未来智能体与人交互方式可能的多样性与优化方向,并非一味追求“对话式”交互。
告别“填鸭式”:目标驱动的“课程表”训练范式
Karpathy对AI训练范式的批判尤其犀利,他认为当前主流的“大规模预训练”模式,如同将所有书塞进孩子嘴里,却期望他成为科学家1。这种**“劣质的演化”(crappy evolution)2方式,即无差别地喂给模型海量数据,导致模型虽然“知道”很多,却缺乏“知道自己不知道”的智慧,容易产生幻觉。他大胆预测,一个仅有十亿参数的纯净“认知核心”**,经过精心设计和训练,其智能程度可能远超今天庞大的模型,它会知道自己不知道,并主动去查询,而非幻觉。
为了实现真正的智能体,训练方式需要从“灌数据”转向“教目标”,遵循三个核心原则:
- 有目标感:AI必须“知道自己在学什么”,被赋予明确的学习方向和任务意识,例如成为一个专业的写作助手或规划专家。这好比为AI设计了一份“课程表”,而非盲目地堆积知识。
- 有任务性:训练应围绕真实任务展开,让AI在解决实际问题的过程中学习,从“知识”转向“行动”。智能体更像是“实习生”,需要在实践中成长,而非死记硬背API文档。
- 有反馈循环:引入动态的“试错—反馈—改进”机制,让AI能根据任务结果不断调整和优化策略,这才是智能成长的真正路径。如DeepMind的Alpha系列通过自我博弈实现进化,Anthropic的宪法式AI通过反馈指导模型行为,这些都体现了行业正从静态输入走向结构化、有目标、有反馈的训练路线1。
这标志着AI将从“prompt时代”走向“课程时代”1。未来的AI不再仅仅通过一次性的提示词被动驱动,而是拥有自我成长的计划和路径,从被动工具演变为主动学习和改进的伙伴。
智能体社会化:从工具到“社会成员”的伦理与商业重构
Karpathy的远见不止于技术,他预见了智能体对社会结构的深层影响。他认为,未来的AI将不再仅仅是API,而是可信任的代理人,带着身份、角色和责任进入社会1。这意味着AI不再仅仅是功能模块,它们将扮演律师、财务顾问、私人助理,甚至公司的运营官等具体角色。
这种转变引发了一系列深远的商业和社会影响:
- 角色市场兴起:当AI拥有角色后,谁来定义其职责?谁来认证其资格?如果一个AI医生或律师出现失误,责任又由谁承担?这将催生一个全新的**“角色认证”和“责任归属”市场**,并对现有法律、伦理和监管框架提出严峻挑战1。
- 商业模式创新:企业将不再仅仅部署AI工具,而是“雇佣”一支AI团队。例如,一个财务智能体、一个法律智能体、一个生活规划助理,它们都将有名字、背景、记忆和责任,形成一个充满人格的AI生态系统。这预示着SaaS模式将向“Agent-as-a-Service”或“AI Worker Marketplace”演进,催生新型的商业服务与合作模式。
- 人机协作重塑:Karpathy认为,AI不会取代人类,而是会改变角色的定义,使人类从执行者转变为更高层次的协作者和愿景制定者。例如,医生与AI协作,AI负责数据分析,人类做最终判断;律师与AI搭档,AI起草合同,人类负责谈判和策略。这种融合非但没有削弱人类价值,反而将人类从重复性劳动中解放,去承担更具创造性和战略性的工作。
值得注意的是,Karpathy结合自身在特斯拉自动驾驶领域的经验,指出将复杂AI系统部署到现实世界是一场漫长而艰苦的“9的征程”2。自动驾驶数十年的发展历程揭示了“高失败成本”系统面临的巨大挑战,一个关键软件系统的漏洞可能导致数百万人的隐私泄露或金融系统崩溃,这使得“快速迭代、不怕犯错”的理念在关键AI应用中显得天真且危险。这一洞察为智能体的商业化落地敲响了警钟,强调鲁棒性、可信赖性与安全性将是商业成功的核心要素。
十年长曲线:AGI的冷静预期与人类潜能的重释
Karpathy对“爆发年”的否定,实则引出了AGI发展的一条**“慢的长曲线”**。AGI不会带来经济的爆炸式增长,而是会平滑地融入过去两个半世纪以来约2%的GDP增长曲线中,成为自动化浪潮的延续2。这种渐进式的融入,将更加深刻而持久地改变我们的社会。
在这一演进中,Karpathy对于人类的未来也提出了富有哲学思辨的展望。他创办的教育机构Eureka,旨在成为“星际舰队学院”,通过构建高效的**“知识斜坡”,赋予人类更强的认知能力,避免在技术浪潮中被边缘化2。当所有经济活动都可以被AI自动化时,教育将不再是谋生手段,而会变得像健身一样,成为一种追求健康、乐趣和自我实现的内在价值**。他坚信,人类心智能力的潜能远未被完全释放,一个完美的AI导师可以为每个人铺平通往任何知识领域的道路,届时掌握多种语言、精通多门学科将成为常态,人类将得以在智识追求中找到文明延续的意义2。
Karpathy的洞察,为当前浮躁的AI业界注入了一剂清醒剂。它提醒我们,真正的智能革命不是一场瞬间的“奇点爆发”,而是一次结构性的重构和漫长的演进。当我们未来某天与AI交互时,突然意识到它已不再是单纯的工具,而是一个拥有记忆、身份与职责的伙伴,那时,我们才真正走进了智能体时代的深处,而人类文明的进程也已在这条长曲线中,悄然走出了很远。