刚刚,OpenClaw史上最猛更新新智元

3/8/2026

OpenClaw推出v2026.3.7-beta.1,史上最密集一次更新:89项提交、200+Bug修复,核心亮点是全新ContextEngine插件接口——上下文管理终于可以「自由插拔」,不动核心代码就能换策略。这次更新值得每一个做AI Agent的人认真看。

龙虾热之后,OpenClaw在国内的热度直线飙升。

就在刚刚,OpenClaw官方发布了全新v2026.3.7-beta.1版本,创始人Peter Steinberger亲自下场在X上高调官宣。

89项代码提交,200+个Bug修复,全新的ContextEngine插件接口,GPT-5.4与Gemini 3.1 Flash双首发适配——这一刀,切得非常稳。

顺带一提,OpenClaw不仅Star数狂飙冲向3w+,而且issues和pr数量也是冠绝全球。

OpenClaw,可以说是开源的一次里程碑,也可以看作是全世界极客们的封神制作。地球上有什么项目能够联合如此多的狂热极客们?

废话不多说,先来看下这次都更新了什么。

OpenClaw变更最密集的一次更新

看点一:GPT-5.4+Gemini 3.1双引擎上线

新版全面适配了OpenAI最新的GPT-5.4以及Google的Gemini 3.1 Flash。

在模型切换层面,OpenClaw还优化了模型降级与重试机制——当某个模型限流或过载时,系统会自动切换到备选模型,而不是直接报错让用户干等。

这意味着什么?你可以把OpenClaw想象成一个「模型路由器」。前端对接的是你习惯的聊天工具,后端则可以灵活挂载Claude、GPT、Gemini、DeepSeek等任意大模型。哪个好用用哪个,哪个便宜切哪个。这种架构的灵活性,是单一厂商的AI助手做不到的。

看点二:ContextEngine——开发者等了很久的东西

这次最硬核的技术亮点,是全新推出的ContextEngine插件接口。

做过AI应用的朋友都知道,上下文管理是智能体开发中最让人头疼的问题之一。

对话轮次一多,token就炸;信息一压缩,关键细节就丢。

OpenClaw这次开放了一组完整的生命周期钩子:bootstrap(初始化)、ingest(注入)、assemble(组装)、compact(压缩)、afterTurn(回合后处理),甚至包括prepareSubagentSpawn(子智能体生成前)和onSubagentEnded(子智能体结束后)。

翻译成人话:开发者现在可以在不修改OpenClaw核心代码的情况下,完全自定义上下文的处理逻辑。你想用RAG?可以。想做激进压缩?随意。想让不同子任务拥有隔离的记忆空间?接口都给你准备好了。

这对整个社区生态的意义是巨大的——它把OpenClaw从一个工具变成了一个平台。

看点三:Discord+Telegram深度整合

多渠道一直是OpenClaw的核心卖点,而这次更新在两个最活跃的社区平台上做了重大升级:

Discord端修复了断连后无法恢复的死机问题,优化了频道解析和机器人心跳检测。Telegram端新增了主题级别(Topic)的智能体路由隔离——这意味着你可以在同一个Telegram群组的不同主题里,分别运行不同的AI智能体,互不干扰。

同时,两个平台都新增了持久化频道绑定功能。以前重启OpenClaw后,频道绑定关系可能丢失;现在这个状态会被持久化存储,重启后自动恢复。

看点四:200多项Bug修复,几乎翻修了一遍

这次的修复清单长得让人咋舌。粗略分类一下:

渠道层面,覆盖了Telegram草稿流重复、Discord断连死机、Slack消息路由、飞书Webhook兼容性、WhatsApp自聊天前缀注入、iOS/macOS端的各种边界情况。

核心智能体层面,修了工具调用的参数解析问题(包括xAI的参数解码)、上下文压缩时的截断提示丢失、OpenAI流式输出的兼容性。

网关与内存层面,解决了Token防连环掉线、QMD内存检索去重、SQLite锁冲突。

安全层面,包括依赖库的安全升级(Hono、tar等)、沙盒逃逸防范、系统命令执行的白名单鉴权。

此外,新版还引入了西班牙语界面支持、将Web搜索功能升级为更强的SearchAPI,以及通过Docker多阶段构建优化了镜像体积和启动速度。

89项更新是什么概念?

先给不熟悉的朋友再补个课:OpenClaw是什么?

简单说,它是目前开源社区里影响力最大的AI Agent框架之一,可以理解为让AI帮你打工的底层平台。

你可以把它部署在自己的服务器上,连上各种大语言模型,再接入Slack、Discord、Telegram、飞书等渠道,让AI Agent替你处理用户消息、执行任务、管理上下文,甚至协调多个智能体协同作战。

它的开源属性,是它最大的杀手锏。你不需要向任何厂商交租子,数据在自己手里,连接哪个模型你说了算。

这次3.7 beta,89项代码提交不是堆数字玩,每一条都实打实——

最重头的一条:ContextEngine插件接口上线。

对开发者来说,上下文管理是AI Agent工程中最头疼的问题。当对话轮次多了,Token堆积超出模型窗口限制,你要么截断、要么压缩、要么想其他办法。而这些处理逻辑一旦写死在核心代码里,日后每次调整都是高风险手术。

OpenClaw 3.7的ContextEngine接口,解决的就是这个问题。

Scroll for more