刚刚,OpenClaw史上最猛更新新智元
OpenClaw推出v2026.3.7-beta.1,史上最密集一次更新:89项提交、200+Bug修复,核心亮点是全新ContextEngine插件接口——上下文管理终于可以「自由插拔」,不动核心代码就能换策略。这次更新值得每一个做AI Agent的人认真看。
龙虾热之后,OpenClaw在国内的热度直线飙升。
就在刚刚,OpenClaw官方发布了全新v2026.3.7-beta.1版本,创始人Peter Steinberger亲自下场在X上高调官宣。
89项代码提交,200+个Bug修复,全新的ContextEngine插件接口,GPT-5.4与Gemini 3.1 Flash双首发适配——这一刀,切得非常稳。
顺带一提,OpenClaw不仅Star数狂飙冲向3w+,而且issues和pr数量也是冠绝全球。
OpenClaw,可以说是开源的一次里程碑,也可以看作是全世界极客们的封神制作。地球上有什么项目能够联合如此多的狂热极客们?
废话不多说,先来看下这次都更新了什么。
OpenClaw变更最密集的一次更新
看点一:GPT-5.4+Gemini 3.1双引擎上线
新版全面适配了OpenAI最新的GPT-5.4以及Google的Gemini 3.1 Flash。
在模型切换层面,OpenClaw还优化了模型降级与重试机制——当某个模型限流或过载时,系统会自动切换到备选模型,而不是直接报错让用户干等。
这意味着什么?你可以把OpenClaw想象成一个「模型路由器」。前端对接的是你习惯的聊天工具,后端则可以灵活挂载Claude、GPT、Gemini、DeepSeek等任意大模型。哪个好用用哪个,哪个便宜切哪个。这种架构的灵活性,是单一厂商的AI助手做不到的。
看点二:ContextEngine——开发者等了很久的东西
这次最硬核的技术亮点,是全新推出的ContextEngine插件接口。
做过AI应用的朋友都知道,上下文管理是智能体开发中最让人头疼的问题之一。
对话轮次一多,token就炸;信息一压缩,关键细节就丢。
OpenClaw这次开放了一组完整的生命周期钩子:bootstrap(初始化)、ingest(注入)、assemble(组装)、compact(压缩)、afterTurn(回合后处理),甚至包括prepareSubagentSpawn(子智能体生成前)和onSubagentEnded(子智能体结束后)。
翻译成人话:开发者现在可以在不修改OpenClaw核心代码的情况下,完全自定义上下文的处理逻辑。你想用RAG?可以。想做激进压缩?随意。想让不同子任务拥有隔离的记忆空间?接口都给你准备好了。
这对整个社区生态的意义是巨大的——它把OpenClaw从一个工具变成了一个平台。
看点三:Discord+Telegram深度整合
多渠道一直是OpenClaw的核心卖点,而这次更新在两个最活跃的社区平台上做了重大升级:
Discord端修复了断连后无法恢复的死机问题,优化了频道解析和机器人心跳检测。Telegram端新增了主题级别(Topic)的智能体路由隔离——这意味着你可以在同一个Telegram群组的不同主题里,分别运行不同的AI智能体,互不干扰。
同时,两个平台都新增了持久化频道绑定功能。以前重启OpenClaw后,频道绑定关系可能丢失;现在这个状态会被持久化存储,重启后自动恢复。
看点四:200多项Bug修复,几乎翻修了一遍
这次的修复清单长得让人咋舌。粗略分类一下:
渠道层面,覆盖了Telegram草稿流重复、Discord断连死机、Slack消息路由、飞书Webhook兼容性、WhatsApp自聊天前缀注入、iOS/macOS端的各种边界情况。
核心智能体层面,修了工具调用的参数解析问题(包括xAI的参数解码)、上下文压缩时的截断提示丢失、OpenAI流式输出的兼容性。
网关与内存层面,解决了Token防连环掉线、QMD内存检索去重、SQLite锁冲突。
安全层面,包括依赖库的安全升级(Hono、tar等)、沙盒逃逸防范、系统命令执行的白名单鉴权。
此外,新版还引入了西班牙语界面支持、将Web搜索功能升级为更强的SearchAPI,以及通过Docker多阶段构建优化了镜像体积和启动速度。
89项更新是什么概念?
先给不熟悉的朋友再补个课:OpenClaw是什么?
简单说,它是目前开源社区里影响力最大的AI Agent框架之一,可以理解为让AI帮你打工的底层平台。
你可以把它部署在自己的服务器上,连上各种大语言模型,再接入Slack、Discord、Telegram、飞书等渠道,让AI Agent替你处理用户消息、执行任务、管理上下文,甚至协调多个智能体协同作战。
它的开源属性,是它最大的杀手锏。你不需要向任何厂商交租子,数据在自己手里,连接哪个模型你说了算。
这次3.7 beta,89项代码提交不是堆数字玩,每一条都实打实——
最重头的一条:ContextEngine插件接口上线。
对开发者来说,上下文管理是AI Agent工程中最头疼的问题。当对话轮次多了,Token堆积超出模型窗口限制,你要么截断、要么压缩、要么想其他办法。而这些处理逻辑一旦写死在核心代码里,日后每次调整都是高风险手术。
OpenClaw 3.7的ContextEngine接口,解决的就是这个问题。


