Claude源码泄漏了?老卫同学

4/2/2026

这两天,AI 圈里有一条消息炸得很快:Anthropic 疑似把 Claude 的源码泄漏了。

这句话听起来很吓人,但如果把事情说准确一点,实际发生的并不是“Claude 大模型本体被公开”,而更像是:Anthropic 在一次 Claude Code 的发布过程中,意外暴露了这款 AI 编程工具的大量客户端与 agent harness 相关源码。

这不是一个小事故,但它的含义,也和“模型权重泄漏”并不一样。

真正值得看的,不是“源码没了”这类情绪化表达,而是:为什么这次暴露会让整个 AI 工程圈都盯上它?它到底暴露了什么?又说明了 AI 产品竞争已经进入了哪个阶段?

先把事实边界说清楚

目前多家英文媒体的说法,大体能互相印证:

• 事件发生在 Claude Code 的一个 npm 发布版本中;

• 有研究人员发现,包里带出了一个体积很大的 source map 文件;

• 这个 source map 又指向了可下载的原始 TypeScript 源文件归档;

• 最终,外界得以还原出 约 1900 个文件、50 多万行代码 的 Claude Code 相关实现。

Anthropic 对外的说法是,这属于一次 由人为失误导致的发布打包问题,而不是外部入侵造成的“安全 breach”。公司同时表示,没有客户敏感数据或凭证被暴露。

所以,最重要的一句是:

这次暴露的重点,不是 Claude 模型权重,不是训练数据,也不是用户数据;而是 Claude Code 这款产品外层的软件实现。

这层区分非常重要。因为“模型泄漏”和“产品源码暴露”,对行业的意义完全不是一回事。

泄漏的到底是什么?

如果用更通俗一点的话说,这次暴露出来的,不是 Claude 的“大脑”,而更像是它的“身体”和“操作系统外壳”。

Claude Code 之所以能做很多看起来很像“智能体”的事,不只是因为背后接了一个强模型,更因为外面还包着一层非常重要的工程系统:

• 它怎么调用工具

• 它怎么管理 slash commands

• 它怎么组织任务执行流程

• 它怎么处理权限、限制和遥测

• 它怎么和外部软件环境交互

• 它怎么在不同步骤之间维持 agent 行为

这些东西,很多并不在模型参数里,而是在所谓的 agent harness、客户端逻辑和工具编排层里。

也正因为如此,这次事件才会让很多开发者和竞品团队异常兴奋。因为对今天的 AI Coding 产品来说,真正决定“能不能用”的,往往并不只是底层模型,而是包在模型外面的那层系统工程。

为什么这件事会让整个 AI 工程圈兴奋?

因为它暴露的,恰恰是现在最值钱、也最难复制的那一层。

过去大家谈大模型竞争,容易把注意力都放在模型本身:参数量多大、推理能力多强、基准分数多高。但到了 2026 年,行业已经越来越清楚一个现实:

模型能力只是起点,真正拉开产品差距的是工程层。

尤其在 AI Coding 这个赛道里,用户要的从来不是“回答得像不像”,而是:

• 能不能读仓库

• 能不能选对文件

• 能不能拆任务

• 能不能用工具

• 能不能稳定执行

• 能不能在真实项目里少犯错

这些能力背后,不是单靠一个模型就能自动长出来的。它们依赖大量产品设计、系统约束、工具编排和经验积累。

换句话说,现在最像护城河的东西,越来越不是“模型秘密”,而是“模型外面那套可执行系统”。

而这次 Anthropic 暴露出来的,正是这部分里很有价值的内容。

它为什么不是“小失误”?

因为它戳中了一个很尴尬、但也很真实的事实:

AI 公司天天在讲安全、对齐、权限、风险控制,但自己最容易翻车的地方,往往还是最传统的软件工程流程。

source map 误带、打包配置错误、发布流程没拦住、内部归档地址被顺着引用找到——这些都不是“AI 时代特有”的高深漏洞,反而是非常经典的工程失误。

这也是为什么这件事让人有点哭笑不得。

Anthropic 一直是最强调“安全”和“审慎发布”的 AI 公司之一,结果出了问题,首先暴露的却不是模型本身,而是发布链路和工程管理上的基本功。

这对整个行业其实是个提醒:

你可以把模型做得很强,也可以把风险框架写得很漂亮,但如果构建、打包、发布、权限和资产管理这些基础工程没守住,照样可能出大事。

对用户有没有直接风险?

从目前已知信息看,用户的直接风险有限。

原因也很简单:

• 没有证据显示模型权重外流

• 没有证据显示用户数据泄漏

• Anthropic 也明确说没有客户凭证暴露

所以,如果你是普通 Claude 用户,这件事更像是“厂商工程事故”,而不是你账户马上要出问题。

但如果你是开发者、创业团队或者竞品公司,那这件事的含义就完全不一样了。

因为它等于把一部分原本只能靠猜、靠逆向、靠体验去摸索的产品实现,直接摊开在了桌面上。即便它不能让别人“复制一个 Claude”,也足以让很多人更快看懂 Claude Code 的一些设计方法、执行逻辑和产品哲学。

对 AI Coding 行业意味着什么?

我觉得这件事真正值得写的,不是“Anthropic 又翻车了”,而是它再次证明了一件事:

AI Coding 产品的竞争,已经从卷模型,转向卷系统。

模型当然依然重要,但今天一个真正好用的 AI Coding 工具,靠的已经不只是模型推理本身,而是整套:

• 任务拆解机制

• 工具调用系统

• 文件检索与上下文管理

• 执行限制与权限边界

• 交互命令设计

• 错误恢复与用户体验

这也是为什么很多人看完这次事件后,第一反应不是“哇,Claude 泄漏了”,而是“终于能更清楚地看到一流 AI agent 产品到底怎么做出来的”。

从行业角度看,这可能会带来两层影响:

第一,竞品会学得更快。

哪怕拿不到模型本身,光是看这套外层架构,也足以缩短很多团队的试错时间。

第二,护城河会进一步向工程执行力转移。

因为一旦“思路”被更多人看见,真正还能拉开差距的,就只剩下两件事:谁做得更稳,谁迭代得更快。

真正尴尬的地方还不只这一层

更微妙的是,这起事件并不是孤立发生的。

就在几天前,Anthropic 还因为另一场信息暴露风波被媒体盯上,外界开始讨论其未发布模型 Mythos / Capybara 等内部信息。接连出现这类问题,会让外界对公司内部的信息治理、发布纪律和工程流程产生额外怀疑。

Scroll for more