TL;DR:
Manus的极速兴衰,不仅揭示了AI Agent赛道的热度与残酷,更通过其创始人季逸超的深度技术复盘,前瞻性地阐释了“上下文工程”作为构建未来智能体核心范式的关键地位。这不仅是一场技术演进的实验,更是对商业伦理、创业策略和未来人机交互深层模式的综合思考。
Manus,这家曾被誉为“中国DeepSeek时刻”的AI Agent明星公司,在短短四个月内上演了一出从全球爆红、融资数千万美元到被曝“删博、裁员、跑路新加坡”的戏剧性起落。这一幕幕看似荒诞的事件背后,实则折射出AI Agent这一新兴赛道所面临的技术深渊、商业挑战以及潜在的伦理困境。在舆论漩涡中,联合创始人季逸超首次以一篇技术长文回应,将焦点拉回到产品与技术本身,为我们提供了审视智能代理构建核心逻辑的独特视角,也留下了一系列关于商业责任和创业模式的未解之谜。
技术原理与“上下文工程”的深层革命
季逸超的复盘核心聚焦于一个关键概念:上下文工程(Context Engineering)。这不仅仅是一种技术策略选择,更是对未来智能体架构的一种深刻洞察,甚至可以说是一种哲学思辨1。他明确指出,面对大模型迭代的迅猛速度,Manus选择了一条与众不同的道路:不再自研底层大模型,而是专注于如何最大化利用现有开源或商业大模型的上下文学习能力。这好比在汹涌的技术潮汐中,与其试图建造更强大的水泵,不如精心设计一艘能乘风破浪的船。
这种选择的背后,是对效率和迭代速度的极致追求。对于处于产品市场匹配(PMF)前期的创业公司而言,数小时的改进发布周期远比数周的模型训练周期更具商业价值和生存意义。这揭示了一个深层逻辑:在模型能力趋同的时代,如何高效地“唤醒”并“操控”模型,使其服务于特定任务,将成为智能体成功的关键。
季逸超在博客中详述了“上下文工程”的几项核心实践,每一项都蕴含着对AI Agent系统运行机制的精妙理解:
-
KV缓存命中率:AI Agent的成本与效率生命线。他强调,KV缓存命中率是生产级AI Agent最重要的指标。多轮智能体与传统聊天机器人的输入输出比高达100:1,这意味着每次迭代中,上下文的增长会急剧增加延迟和推理成本。通过保持提示前缀稳定、上下文仅追加而非修改、序列化确定性,以及在自托管模型中启用前缀缓存等措施,Manus旨在最大化缓存命中率,从而实现高达10倍的成本节约,这在商业化运营中具有举足轻重的作用2。这不仅是技术优化,更是商业模式可持续性的基石。
-
“遮蔽”而非“移除”:动态动作空间管理的艺术。随着智能体功能复杂化,工具数量激增。Manus的实践表明,动态增减工具会破坏KV缓存并导致模型混淆。其创新点在于采用上下文感知的状态机,通过“遮蔽”(Masking)Token的对数概率来管理工具可用性,而非直接从上下文移除。这类似于一种高级的注意力引导机制,让模型在保持缓存效率的同时,精准地选择当前状态下最合适的工具,展现了对大模型内在工作机制的深刻理解。
-
文件系统作为“无限上下文”:构建外部记忆与具身智能的桥梁。传统大模型的上下文窗口始终有限,且超长上下文会降低性能和效率。Manus将文件系统视为智能体的外部记忆,允许模型按需存取信息。这种“可恢复的压缩策略”将持久性和可读写性融入到智能体的记忆机制中,使得信息不再因上下文截断而永久丢失。季逸超甚至展望,如果未来的状态空间模型(SSMs)能掌握这种基于文件的记忆,其速度和效率可能真正开启“神经图灵机”的新纪元,从而在具身智能领域发挥重要作用3。
-
“显式背诵”:操控模型注意力的认知工程。Manus在处理复杂任务时会自动生成并更新
todo.md
文件,不断将任务目标“重复写入上下文末尾”。这是一种巧妙的认知操控,通过自然语言的“背诵”将全局计划推入模型的近期注意力范围,有效避免了模型在长任务中“跑偏”或遗忘目标的问题。这不仅是技术策略,更暗含了对人类认知过程(如重复记忆、清单管理)的模拟和借鉴。 -
保留错误信息:智能体的自我修正与韧性成长。智能体必然会犯错。Manus的实践是保留失败路径、观察结果甚至堆栈跟踪,让模型“看到”错误,形成负面示例,从而隐式地更新其内部信念,减少重犯同类错误的可能性。这挑战了传统软件开发中“隐藏错误”的惯性思维,将错误视为学习和进化的宝贵数据。这不仅提升了系统的鲁棒性,也为AI Agent的自我学习和“韧性”行为提供了新的思路,尽管在学术研究中这一指标仍被忽视。
产业生态与商业版图的深层反思
Manus的快速崛起与争议,是当前AI Agent产业狂热与不确定性并存的一个缩影。其在短时间内的巨额融资(Benchmark领投的7500万美元B轮,估值5亿美元)印证了资本对Agent赛道的高度关注和期待。然而,“删博、裁员、跑路新加坡”的负面新闻,不仅重创了公司声誉,也引发了对创业公司治理、商业伦理和地缘政治风险的深刻反思。
Manus选择将公司主体迁往新加坡,季逸超在技术复盘中对此只字未提,这暴露了其技术叙事与商业现实之间的巨大鸿沟。这背后可能是对国内日益收紧的监管、不确定的市场环境,或是对国际化人才和资本更为开放环境的考量。无论具体原因如何,这一举动无疑加剧了公众对其商业诚信和责任的质疑。
从商业敏锐度来看,Manus在技术策略上选择了“上下文工程”而非自研大模型,这本身就是一种基于前次创业失败教训的商业决策:快速验证PMF、降低研发门槛、聚焦应用层创新。这种“套壳”而非“造轮子”的策略,在初期能够迅速占领市场高地,但其护城河深度,以及面对底层模型迭代的议价能力,仍是值得商榷的问题。当核心技术掌握在他人手中时,上层应用的创新边界和商业壁垒将面临持续的挑战。
未来发展路径与社会影响展望
Manus的经验教训,为整个AI Agent行业敲响了警钟,也提供了宝贵的启示:
- 技术与商业的平衡艺术:纯粹的技术领先不足以保证商业成功。创业公司必须在技术创新、商业模式、公司治理和社会责任之间找到微妙的平衡。快速扩张带来的风险、对员工的责任,以及面对负面舆论的透明度,都将成为衡量一家科技公司长期价值的重要维度。
- 上下文工程的黄金时代:随着基础模型的能力日益强大和普惠化,“上下文工程”的价值将愈发凸显。未来,智能体之间的差异化竞争,不再仅仅是底层模型的“智商”,更是如何通过精巧的“情境设计”和“上下文塑造”,让模型变得更“有用”、更“稳定”、更“有韧性”。这预示着一个全新的软件工程范式正在形成,即**“提示工程(Prompt Engineering)”将升级为“上下文工程(Context Engineering)”**,成为构建复杂AI应用的核心技能。
- 具身智能的潜在突破:将文件系统作为“无限上下文”的思路,为具身智能(Embodied AI)的记忆和学习机制提供了新的想象空间。未来3-5年内,当AI Agent与现实世界(通过机器人、IoT设备)的交互更加紧密时,如何高效、持久地管理其“记忆”和“环境状态”,将是其实现更高级自主行为的关键。SSM与文件系统的结合,或许是通往“神经图灵机”的关键一步。
- AI伦理与治理的迫切性:Manus事件再次提醒我们,在追逐技术红利的同时,必须同步构建完善的AI伦理与治理框架。从裁员风波到公司迁址,这些行为都触及了商业道德的底线。智能体本身会犯错,但公司不能回避其作为社会实体的责任。未来,如何在技术层面(如错误保留机制)和公司治理层面(如透明度、员工权益保障)共同构建一个负责任的AI生态,将是社会面临的重大挑战。
季逸超在博文结尾写道:“智能代理的未来将由一个个情境逐步构建。精心设计每一个情境。”这句话不仅是对技术细节的强调,更是对未来AI Agent与人类社会交互模式的深刻预言。AI Agent将融入我们生活的方方面面,每一个情境的设计都将塑造它们的行为,并最终影响人类文明的进程。Manus的经历,无论褒贬,都已成为AI Agent发展史上一段极具启发性的案例,它迫使我们思考:在技术狂飙突进的时代,我们该如何负责任地构建未来?