TL;DR:
Manus在经历裁员和业务调整后,其联创季逸超深度复盘了AI Agent构建中的“上下文工程”核心经验。这不仅揭示了智能体技术走向落地的关键瓶颈与优化方向,更预示着AI应用开发正从模型训练转向高效上下文管理,引领行业进入“后大模型时代”的精细化竞争。
过去数月,被誉为“全球首款通用AI智能体”的Manus,在经历了短短百余天的惊艳亮相与千万级访问量爆发后,迅速陷入裁员与业务收缩的争议漩涡,最终将全球总部迁往新加坡。创始人季逸超近日发表的技术博客,首次系统性地复盘了Manus在构建AI Agent过程中的核心技术教训与实践心得,尤其聚焦于一个新兴且关键的领域——“上下文工程”(Context Engineering)。这篇复盘不仅是对一家初创公司策略调整的解释,更是对整个AI Agent领域技术演进路径、商业化挑战及哲学深思的深刻剖析。
“模型训练”到“上下文工程”的范式转移
Manus的核心决策之一,是放弃了“从头开始为开放信息提取和语义搜索训练模型”的传统路径,转而**“押注于上下文工程”**。这一战略性转变并非空穴来风,它深刻反映了后GPT-3时代AI应用开发的范式变迁。在BERT时代,模型微调耗时数周,迭代缓慢,对快速验证产品市场契合度(PMF)的企业而言是致命伤1。而如今,随着基础模型的强大涌现能力,开发者可以将重心从底层模型训练转向如何高效利用和管理这些模型的上下文输入,以实现“几小时内而非几周内推出改进”。这使得产品能够与底层模型“保持正交”,成为“上涨潮水中的那条船,而非固定在海床上的柱子”1。
这种范式转移,在商业层面具有颠覆性意义。它显著降低了AI应用开发的门槛和周期,让更多创新者能基于现有大模型快速构建应用,将竞争焦点从“谁有更强大的基础模型”转向“谁能更好地利用基础模型的能力解决实际问题”。对于投资人而言,这意味着更快的PMF验证速度和更短的回报周期,从而驱动资本向具备卓越上下文工程能力的企业倾斜。
KV-Cache:生产级AI Agent的性能与成本命脉
季逸超指出,KV-cache命中率是生产阶段AI Agent最重要的单一指标,它直接影响延迟和成本。在典型的Agent任务循环中,输入与输出的token比例通常高达100:1,远超传统聊天机器人1。这意味着每一次迭代,Agent都需要处理大量的历史上下文。通过利用KV-cache,相同的上下文前缀可以大幅减少首次token生成时间(TTFT)和推理成本。以Claude Sonnet为例,缓存的输入token成本为0.30美元/百万token,而未缓存的成本高达3美元/百万token,两者相差高达10倍1。
Manus的实践经验提供了提高KV-cache命中率的关键策略:
- 保持提示前缀稳定:微小的token差异也会导致缓存失效,因此应避免在系统提示开头加入动态时间戳等信息。
- 上下文仅追加:避免修改先前的操作或观察,并确保序列化过程具有确定性,以维持缓存的完整性。
- 明确标记缓存断点:在不支持自动增量前缀缓存的框架中,手动插入断点并确保其包含系统提示的结尾,以最大化缓存效果。
这种围绕KV-cache进行的设计优化,不仅是技术层面的精进,更是商业效率的直接体现。在激烈的AI Agent市场竞争中,谁能有效控制成本、提升响应速度,谁就能抢占先机,赢得用户和市场份额。它将成为衡量未来AI Agent商业模式可持续性的重要指标。
外部记忆与注意力操控:Agent智能化的关键突破
大模型的上下文窗口虽已拓展至128K token甚至更长,但在真实世界的复杂Agent任务中,仍面临观察内容庞大、模型性能下降和长输入成本高昂等挑战1。Manus的解决方案是将文件系统作为最终上下文,让模型按需读写文件,将其作为“结构化的外部记忆”1。这种策略通过可恢复的压缩(如保留URL而非网页内容),实现了在不永久丢失信息的前提下缩短上下文长度。这一创新路径不仅解决了上下文限制的难题,更让人们看到了“神经图灵机”的雏形——Agent-based SSMs的未来可能性,即通过外部记忆来突破模型内部状态的限制,从而实现真正的长期规划和复杂任务处理。
此外,Manus通过**“复述操控注意力”**的机制,利用自然语言在上下文中不断更新并重述todo.md
文件,将全局目标拉回模型的注意力焦点,有效防止了模型在长任务中“迷失在中间”的问题1。这种“自然语言内省”能力,本质上是赋予了AI Agent类似人类的“自我提醒”和“目标对齐”机制,是其从简单工具调用者向真正自主智能体迈进的关键一步。
从失败中学习:迈向更鲁棒的AI Agent
与人类一样,AI Agent也会犯错。Manus的经验表明,“保留错误的内容”——即将失败的行动、观察、甚至堆栈跟踪保留在上下文中——是改善Agent行为最有效的方法之一1。当模型看到失败的尝试时,它会隐式地更新其内部信念,从而减少重复相同错误的可能性。这一洞察挑战了传统AI训练中“清洁数据”的理念,强调了错误恢复在真实世界Agent行为中的核心地位。它预示着未来AI Agent的评估标准将不再仅仅关注理想条件下的任务成功率,而更重视其在复杂、不确定环境中自我纠错和适应的能力。
同时,Manus也警示开发者**“不要被少样本提示所困”**。虽然少样本提示是提高LLM输出的常见技术,但在Agent系统中可能导致模型陷入模仿模式,重复低效甚至错误的行动。通过引入多样性、结构化变化或微小的噪声,可以帮助模型打破僵化的行为模式,调整注意力1。这反映了Agent系统在复杂决策和行为生成方面的独特挑战,也为未来Agent的提示工程(Prompt Engineering)指明了新的方向——从单一最优范式走向鲁棒性和多样性并重。
商业洗牌与未来图景:AI Agent的深水区挑战
Manus的裁员与业务调整,并非简单的公司经营不善,它折射出AI Agent赛道在经历了早期狂热后,正步入深水区挑战。在PMF尚未明确、技术尚不成熟的阶段,快速烧钱、扩张的模式面临巨大风险。Manus选择聚焦核心技术团队,迁往更有利于全球化运营的区域,并持续深耕技术,特别是“上下文工程”,这无疑是一次战略性的止损与再聚焦。
未来3-5年,AI Agent的竞争将从“概念提出”和“初步演示”阶段,进入到**“生产级能力”和“商业化落地”**的激烈角逐。这意味着以下几个趋势将加速演进:
- 基础设施的精细化:围绕KV-cache优化、外部记忆管理、多模态上下文融合等技术,将涌现更多专业化的工具链和框架,成为Agent开发者的“新基建”。
- “上下文工程”成为核心竞争力:具备将复杂任务分解、记忆管理、错误恢复、注意力引导等能力有效整合到上下文中的团队,将拥有显著的先发优势。
- 行业垂直化与场景落地:通用AI Agent的概念将逐渐向垂直领域的专业Agent演进,如金融Agent、法律Agent、研发Agent等,以解决特定行业的痛点,更快实现商业价值。
- 投资逻辑的转变:资本将更加青睐那些拥有核心技术壁垒、清晰商业模式和能证明成本效益的Agent公司,而非仅仅停留在“炫酷演示”阶段的产品。
- 伦理与治理的迫切性:随着Agent自主性的增强,其行为的不可预测性、潜在的偏见和滥用风险将日益凸显,AI伦理与治理将从理论探讨走向实际监管与技术规范。
Manus的经历,犹如一面镜子,映照出AI Agent从概念走向现实的艰辛与智慧。它不仅提供了宝贵的技术实践经验,更以其商业调整,提醒着所有投身其中的玩家:在技术狂飙突进的时代,唯有深刻理解技术本质,敏锐洞察商业机遇,并以批判性思维面对挑战,方能在AI浪潮中稳立潮头,真正推动人工智能对人类文明进程的深层变革。