OpenClaw 3.7 史诗级更新:给 AI 装个“可插拔大脑”,顺便把 GPT-5.4 这种顶级模型也给“整活”了

温故智新AIGC实验室

TL;DR:

AI 界的“最强开源卷王”OpenClaw 刚发布了 3.7 版本,推出了能让 AI 记忆“说拔就拔”的 ContextEngine 接口,还抢先适配了 GPT-5.4。简单说,这就是给你的 AI Agent 装了个万能插座,不仅脑子更好使了,还自带“模型路由器”功能,稳如老狗。

在“龙虾热”席卷全球 AI 圈之后,OpenClaw 这个开源界的扛把子终于坐不住了。

就在刚刚,创始人 Peter Steinberger 亲自在 X(原推特)上放出了史上最猛更新:v2026.3.7-beta.1。这次更新简直是把“卷”字写在了脸上——89 项代码提交、200 多个 Bug 修复,外加两个模型界的“当红炸子鸡”GPT-5.4 和 Gemini 3.1 Flash 的双首发适配。1

开发者们这半年等的不是寂寞,是真真正正的“记忆自由”。

技术大揭秘:这玩意儿到底怎么工作的?

做过 AI Agent 的朋友都知道,管理上下文(Context)简直是玄学。对话一多,Token 就炸;信息一压,AI 就开始“间歇性失忆”。以前想优化策略,你得去翻 OpenClaw 的核心代码,这就好比为了修个灯泡得把整面墙拆了。

这次更新推出的 ContextEngine 插件接口,彻底终结了这种痛苦。

它开放了一组完整的“生命周期钩子”,包括初始化(bootstrap)、注入(ingest)、组装(assemble)等环节。1

调侃式点评:这就相当于给 AI 的大脑装了一个“U盘接口”。你想用 RAG(检索增强生成)?插上插件就行。想搞激进压缩?插上插件就行。你想让 AI 拥有“前男友式的选择性记忆”?只要代码写得好,也不是不行。

更硬核的是,OpenClaw 现在成了真正的“模型路由器”。它优化了模型降级与重试机制,如果 GPT-5.4 突然限流或者挂了,它会自动无缝切换到 Gemini 或 DeepSeek。这种架构的灵活性,是那些只能抱着一家大腿的 AI 助手永远体会不到的快乐。2

200+ Bug 修复:这是连夜修了多少“福报”?

如果说 ContextEngine 是面子,那 200 多个 Bug 的修复就是实打实的里子。

这次的修复清单长得能绕地球一圈:从 Discord 断连死机,到 Telegram 的“草稿流”重复,再到飞书 Webhook 的兼容性,几乎把市面上能叫出名字的通讯工具都“调教”了一遍。1

甚至连安全性都没落下。新版本引入了沙盒逃逸防范和系统命令白名单。这意味着你部署在自家服务器上的 AI 更加听话,不会因为哪句代码没写好就化身“黑客”去拆你的家。

这种“重产品、轻 PR”的风格,很大程度上归功于创始人 Peter Steinberger。这位 iOS 开发者出身的大佬,骨子里透着一种“我不记得上次有这么多提交,但这绝对值得”的傲娇。2 在如今一半 AI 项目靠 PPT 融资的年代,这种“闭嘴写代码”的精神确实是一股清流。

未来预测:下一个“风口”在哪里?

OpenClaw 的爆火(Star 数正冲向 3w+),本质上是大家对大厂闭源产品的“信任危机”爆发。1

随着 3.7 版本开放了 ContextEngine 接口,我们预测接下来的三个月,开发者社区会涌现出大量奇奇怪怪但极度好用的“记忆插件”。这标志着 OpenClaw 正从一个好用的工具,进化为一个真正的生态平台2

  • 多语言版图扩张:这次新增了西班牙语支持,中文支持估计也已经在路上了。
  • 企业级稳态:如此高密度的 Bug 修复,明摆着是在给下一步进军企业私有化部署“打地基”。

大厂有算力,但开源有控制感。当你能随时查看源码、随时切换模型、数据全在自己服务器里时,那种“我的 AI 我做主”的安全感,确实是任何精美的订阅制产品都给不了的。

所以,你的下一个 AI 助理,是准备把灵魂交给大厂,还是握在自己手里?

引用