刚刚,OpenClaw最猛升级新智元
断更9天,大的终于来了!就在刚刚,OpenClaw迎来3.22最大版本升级,插件架构大换血,GPT-5.4登场,安全防护再升级。
连续9天GitHub停更,OpenClaw终于憋出了一个王炸!
刚刚,Peter Steinberger重磅官宣——OpenClaw「2026.3.22-beta.1」预览版上线。
3.22版本最引人注目的是,对「插件系统」进行了彻底的重构——
全新公开插件SDK(openclaw/plugin-sdk/*)上线,彻底废弃了旧有的扩展API。
同时,OpenClaw官方确认了将ClawHub插件作为分发的首选渠道,显著提升了生态的纯净度。
安全,也是这一次的重头戏。针对Windows用户,系统新增了拦截,对执行环境进行了加固。
GitHub地址:https://github.com/openclaw/openclaw/releases/tag/v2026.3.22-beta.1
值得一提的是,OpenClaw模型配置也升级到了GPT-5.4。
此外, UI 交互、长对话压缩机制、Android端深色模式,以及多平台通知逻辑也得到了精细化修复。
OpenClaw新版一出世,全网陷入了狂欢,许多人跃跃欲试。
如今的龙虾,变得更强了!
停更9天,OpenClaw新版引爆全网
这一次的更新,绝非是小打小闹,而是一次深入底层架构的大修。
早在预告阶段,OpenClaw之父一张龙虾镇场图,暗示了9天未更的大动作。
今天这个重磅升级,终于让所有人见识到了什么才是真大招!
一句话帮你抓住这次更新的核心:
1. 插件系统换骨:旧API一刀切,新SDK全面接管,ClawHub成官方首选分发渠道
2. 安全大修:Windows凭证泄露、环境变量注入、Unicode审批伪装,十多个漏洞一次性封堵
3. 模型阵营扩军:GPT-5.4默认上位,MiniMax M2.7整合,Anthropic Vertex正式接入
4. 体验逐帧打磨:Android深色模式、飞书交互卡片、Telegram话题自动命名、长对话压缩机制迭代
插件系统大重构,旧时代正式翻篇
这次3.22最核心的变化,一句话概括——OpenClaw的插件生态,换骨了。
旧的openclaw/extension-api被彻底移除,没有兼容层,没有过渡期,一刀切。
取而代之的是,全新的openclaw/plugin-sdk/*模块化接口。
这个改动有多狠?所有已有的第三方插件,只要还在用旧API,全部需要迁移。
官方甚至连旧有的nano-banana-pro图像生成技能包装器都一并干掉了,统一走agents.defaults.imageGenerationModel路径。
与此同时,插件安装的默认来源也变了。以前执行openclaw plugins install,系统直接从npm拉包。
现在,ClawHub成为首选——只有ClawHub上找不到的包,才会回退到npm。
之所以要这么做,是因为npm本质上是个通用包管理器,谁都能发包,质量参差不齐;而ClawHub则是OpenClaw官方维护的插件市场,审核更严、来源更可控。
插件生态的「净化运动」,正式开始了。
更值得关注的是「生态」兼容性扩展。
3.22新增了对Claude、Codex、Cursor三大主流开发工具插件包的发现与安装支持,能把外部插件包里的Skills自动映射到OpenClaw的技能体系中。
也就是说,以后你在Cursor里用的好用插件,有可能直接搬进OpenClaw跑起来。
从一个封闭的工具框架,到一个能吸纳外部生态的开放平台——这一步,迈得非常果断。
安全加固:这次补的全是要命的洞
如果说插件重构是面向未来的布局,安全修复就是对当下最紧迫的回应。
3.22一口气打了十多项安全补丁,其中几个相当关键。
第一个大洞:Windows上的SMB凭证泄露。
之前攻击者可以通过构造特殊的file://或UNC路径,在媒体加载环节触发Windows自动发起SMB认证握手。
这时,你的龙虾以为自己正要加载一张图片,但实际上却是在把你的Windows登录凭证往外送。
3.22在核心媒体加载和沙盒附件路径中全面拦截了这类远程路径。
第二个:执行环境沙盒加固。
新版直接封锁了MAVEN_OPTS、SBT_OPTS、GRADLE_OPTS等JVM注入路径,堵住了GLIBC_TUNABLES利用通道,还拦截了.NET的DOTNET_ADDITIONAL_DEPS依赖劫持。
简单说,主流构建工具链的环境变量注入攻击,一次性全堵上了。
第三个:Unicode零宽字符审批伪装。
之前有人发现可以用不可见的韩文填充码位(Hangul Filler)来伪装执行命令的审批提示,让操作者在审批时看不到真实的命令内容。3.22在网关和macOS原生审批界面中全面转义了这类字符。
第四个:语音通话Webhook的预认证防护。
旧版本允许未认证的调用者以1MB/30秒的大缓冲窗口消耗服务器资源。新版把预认证的body读取限制压到64KB/5秒,并限制了单IP的并发预认证请求数。
对公网部署的用户来说,这一版不是「建议更新」,是「必须更新」。
模型生态再扩张:GPT-5.4打头阵
模型层面,3.22做了几个实打实的升级。
默认OpenAI模型正式切换到GPT-5.4,同时预置了gpt-5.4-mini和gpt-5.4-nano的前向兼容支持,模型一上线就能无缝接入。
MiniMax方面,默认模型从M2.5升级到M2.7,还合并了此前分离的API和OAuth两个插件入口,统一成单一的minimax插件,配置复杂度大幅降低。


