深析OpenClaw:一只龙虾凭什么震撼全世界?AI科技评论

3/5/2026

最近春节期间和很多朋友同事聊起 OpenClaw,大家的话题都集中在应用层面。然而,或许不少人都会觉得有点困惑——OpenClaw 到底做了什么创新?为什么之前大厂没人做出来?凭什么一个如此简单的产品就足以震撼全世界?

然而,市场又好像都“揣着糊涂装没明白”,似懂非懂,既熟悉又陌生。

为了解决这个问题,AI 科技评论和我们的 Claw 一起做了一些研究。

本篇文档的边界:

✅ 用生活化的案例,来解释底层逻辑和架构思路

✅ 探索 为什么之前没人做到 的核心技术原因

✅ 融入创始人的思考和洞察

✅ 对行业的启示

❌ 不是部署教程

❌ 不是产品介绍

❌ 不是纯技术文档

本篇文档的受众:

对 AI 感兴趣,科技行业从业者,听说过 OpenClaw。或者就是对一切都有好奇心的人。

看完这篇文档你会获得什么

▪ OpenClaw 真正的创新点在哪

▪ 为什么之前没人做出来——商业模式、安全责任、接入鸿沟

▪ 为什么简单任务比复杂任务更难实现

▪ 本地部署和云端部署的本质差异,避免用错了还以为产品不行

▪ 模型选择对体验的影响有多大

▪ 什么样的使用姿势是正确的,Agent 陷阱是什么

▪ 这件事对整个AI行业、应用层、商业模式意味着什么

▪ 知识资产 这个新商业形态的逻辑

OpenClaw 到底是什么?

用户可能已经无数次听过别人是这样介绍 OpenClaw 的:

正儿八经版:OpenClaw 是一个开源的“AI 数字员工”框架——用户在 WhatsApp/Telegram/微信里跟它说话,它就能帮你干活:收发邮件、管日历、写代码、整理文件、定时提醒你喝水……而且它住在你自己的电脑上,24 小时不下班。

类比版:想象你雇了一个超级实习生。ChatGPT/Claude 是那种“有问才有答”的“百科全书式实习生”——你不问,它就坐着发呆。OpenClaw 则是那种“主动型实习生”:早上主动给你发今日待办,发现你日历冲突了自动提醒你,收到重要邮件帮你分类好,甚至你睡觉的时候它还在帮你跑代码检查。

不知道看完介绍,读者是否有会一种感觉——OpenClaw 目前做到的并没有超出人们的想象或者认知。

春节假期时,我和一个对 AI 认知仅限于抖音营销号的朋友介绍 OpenClaw,他的回复是:

“这难道不是 AI 本来就应该做到的吗,不知道你们一直都在干嘛....”

我当时一瞬间有点错愕,AI 在不同侧的感受是完全不一样的。

一个播客里面提到,在技术侧和用户侧,对一个产品的评价或许完全不同:技术圈觉得这事不新鲜,用户却可能如获至宝、推崇备至。

由此引出第一个话题:

1.1 AI 认知错位的荒诞感

普通人对 AI 的想象,是从科幻小说里来的(Jarvis、Her、星际迷航的电脑)—— 你跟它说话,它帮你干活,它记得你,它主动提醒你。这是一个 自顶向下 的想象,是 AI 应该是什么样 。

电影 Her 里面,AI 能瞬间理解并且主导沟通和行动

然而,过去三年 AI 行业实际走的路线,确实是“自底向上”的:

▪ 先把大模型的智力做上去

▪ 能写诗、能过律考、能分析论文

▪ 然后在一个浏览器标签页里壮大

如果用户尝试搭建过一个 Agent,或者开发一个 Skill,抑或倒腾过“龙虾”,大概率会碰到一些从未见过的问题,再逐步被大语言模型教育,学习了不少新的概念和名词。

事实上,要让 AI 操作浏览器、甚至正常聊天,并非一件易事。

我们日常使用的大模型,它能聊任何话题,但它不能发一封邮件,不能记住用户昨天说了什么,不能在用户不找它的时候主动联系用户。

举个例子,如下所见:

小红书网友案例-联网问题。想让 OpenClaw 真正拥有查天气的联网能力,必须显式地给它安装一个搜索引擎工具 (Search Tool) 或者 浏览器工具 (Browser MCP),并在配置里填入对应的 API Key。

小红书网友案例-模型幻觉。因为没有配置真实的定时任务插件,大模型只是产生了“假装答应”的幻觉,实际上它本身并没有后台计时和主动发消息的能力。

这相当荒诞——AI 最先攻克的是最难的事(推理、创作、编程),却做不到最简单的事(记住我是谁、帮我设个提醒、主动告诉我明天要下雨)。

这个荒诞感存在的本质是我们习惯“用人的视角来审视 AI”。

推理、编程这些对于人类来说困难的事情,对 AI 做起来简单,是因为它们的规则更清楚。而人们感觉困难,则是因为规则体量巨大,学习成本更高。对于 AI 来说,不怕规则多,怕的反而是“没有规则”。

让 AI 主动提醒人类,事实上是因为这些需求极其模糊(大部分用户缺乏清楚表达一件事情的能力,我们很容易表达感受,但是很难清楚表达需求)。

比如说让 AI 在“第二天天气有变化的时候提前通知”,一句提示词当中,不可控的变量太多:

“天气变化具体指什么?”

“是温度变化还是气候发生变化”

“提前是具体提前多久”

如果这时候我们再提高要求,让 AI 企图记住用户是谁,这就更难了——毕竟很多时候,人类自己都很难定义自己,不是吗?(这个后面会展开讨论,先按下不表)

1.2 为什么全球的大厂做不出 OpenClaw

大模型公司(OpenAI、Anthropic、Google)的商业模式,是卖模型能力和 API,它们没有动力和动机去做一个“住在用户电脑上、替用户干活”的 Agent——那会让它们的产品从“你来找我聊天”变成“我去你的地盘干活”,商业模式完全不同,安全风险也完全不同。

OpenClaw 的真正意义是:“它第一次把大家觉得理所应当但一直没实现的东西做出来了”。

这就是那个 iPhone 类比的力量——触摸屏手机之前就有,但 iPhone 让所有人能够第一次说出:“手机就该是这样的。”

说简单一点,就是被业内所有产品从业者讲烂掉的话:从用户的角度出发,从用户的需求出发。

但是,有趣的事情发生了,OpenClaw 出现之前,没有一个 Agent 团队真正从用户的角度出发,不是吗?

Scroll for more