全世界只有中国人在疯抢“龙虾”?经济观察报
那只叫OpenClaw的“龙虾”已经火了一阵子了。期间一直有人让我聊一下“龙虾”,但我总是觉得在爆火之下有很多地方看不清楚,所以一直未作回应。这几天,“龙虾”的舆情热度终于有所降温,还是忍不住,决定来错峰谈谈“龙虾”。
“龙虾”的诞生始末
如果只看各种自媒体的说法,那么“龙虾”就是一个飞天遁地、无所不能的AI代理。仿佛只要部署好,它就可以替你写代码、做生意、跑公司,而作为“龙虾”主人的我们,就只用一边喝着咖啡,看着它们帮自己赚钱好了。那么,这样一款近乎全能的神器,又是如何产生的呢?
如果细查“龙虾”的身世,就会发现它的诞生其实相当潦草。2025年11月,奥地利开发者彼得·斯坦伯格(Peter Steinberger)正在摩洛哥旅行。由于旅行中的网络很不稳定,很难通过网络远程控制自己的电脑工作,于是他想到一个主意:做一个可以连接即时通讯软件Whats App的AI助理,将它部署在电脑上。这样,在野外时,他就可以用Whats App对这个助理下指令,让它来帮助自己在电脑上进行相应的操作。
有了这个点子后,他直接用“胶水代码”把Whats App连上Claude Code,做成一个简单的AI智能体。当他向这个智能体发送消息时,智能体就会调用命令行界面进行处理,然后将消息发回Whats App。据说,整个过程只用了一个小时。完成了这个项目之后,斯坦伯格将它命名为Clawbot,然后随手将其开源到了GitHub上。不料,这个简单的项目一经发布,就成为了GitHub上的热门项目。在此后的几周中,Clawbot在GitHub的星标数就突破了10万。包括斯坦伯格在内,大量开发者不仅自发对其功能进行了完善,还为它创造了一个龙虾的迷因(Meme)——这就是“龙虾”的由来。
但是,“龙虾”的爆火很快引发了一家公司的不满,这家公司就是Anthropic。Anthropic认为,Clawbot的各种功能本质上只是Claude的功能放大器,并且其名字也很容易与Claude混淆,因而要求斯坦伯格立即停止侵权。虽然Anthropic的态度看起来十分蛮横,但其实它的指控也不无道理。
当时,Clawbot的能力确实主要来自对Claude模型的调用,甚至由于其自动化运行十分耗费“词元”(Token),还一度被人戏称为“Claude成瘾者”(Claudoholic)。而其能力的实现,几乎完全依靠Claude Code的代理生成和代码修复功能,因此说其只是Claude的套壳也确实不为过。迫于Anthropic的压力,斯坦伯格不得不放弃与Claude的深度绑定,将原本只支持Claude模型,改为支持多种AI模型,还将Clawbot的名字改成了Moltbot。
由于Moltbot这个名字十分拗口,不久之后,斯坦伯格又将它改为OpenClaw。谁料,这一原本被迫的调整,却意外转动了OpenClaw的命运齿轮。由于OpenClaw开始支持多模型,这款智能体很快引起了多家AI公司(尤其是中国AI公司)的兴趣,它后来的流行,很大程度上就得益于这些公司的推波助澜。而名字里的那个Open,则为斯坦伯格迎来了OpenAI的橄榄枝。不久之后,他就接受萨姆·奥特曼(Sam Altman)的邀请,入职了OpenAI。
“龙虾”是什么?不是什么?
通过上述对OpenClaw产生史的简要回顾,我们不难看到,OpenClaw本质上就是在用户的计算机与AI大模型之间的一个代理层,自身其实没有什么能力。自媒体上所看到的各种能力,归根到底还是来自大模型,它能做的,只是帮助人去调动这些模型。所以,一个“龙虾”厉害不厉害,还是要看接入它的模型到底怎么样。事实上,在被迫与Claude“分手”之后,就有很多用户反映,OpenClaw在调用别的模型时能力大不如前,其原因,就是它后来调用的模型在能力上与Claude存在较大差距。
当然,如果像一些人那样,认为“OpenClaw只是一个壳,本身毫无意义”,这也不客观。作为一个代理,它仍然可以帮助人们做到很多在直接调用大模型时难以实现的功能。
首先,由于Open Claw可以部署在本地,所以在获得权限的前提下,它可以直接对本地电脑进行操作,并对硬件进行管理,这就好像让AI智能体长出了手脚。相比之下,AI大模型以及部署在云端的智能体(如早期的Manus),则即使再聪明,也对本地硬件鞭长莫及。需要指出的是,这种操作本地硬件的便利也是有代价的,这意味着它可能带来的风险也更高。而相比之下,通过云端调用大模型,或者将智能体部署在云端,则相当于天然安装了一个“沙盒”,在安全性上更有保障。
其次,OpenClaw能够拥有大模型所不具备的长期记忆。在使用大模型时,我们经常会遇到一种情况:在之前的一个对话中,我们对其提出了很多要求,并且在那个对话中,它也照办了。但一旦换一个对话,它就会完全忘记这些要求,需要我们重新提示。而OpenClaw则构建了一套外部化的长期记忆机制,将用户偏好、任务结果、错误经验等关键内容写入外部存储,并在后续任务中将其注入到上下文中。这样一来,OpenClaw就具备了长期记忆,不用我们反复叮嘱。
再次,OpenClaw还可以通过Skill文件不断扩展能力。所谓Skill文件,可以理解为一份标准化的任务说明,开发者可以把工作流程写进去,供智能体后续直接调用。由于这些Skill还可以分享和复用,因此一只“龙虾”学到的新本领,也可以快速复制给其他“龙虾”。在此基础上,OpenClaw还能通过任务循环不断重复规划与执行,从而持续工作直到任务完成。相比之下,AI大模型则更多只能提供建议,而很难直接完成各项工作。
通过以上分析可以说,如果把AI大模型比作一个顾问,那么OpenClaw就是一个代理人,更像一个可以交代事务的下属。你不再需要一步步操作,而是说一句“帮我做一个竞品分析”,它就开始自己查资料、整理数据、生成报告。这种体验确实新鲜,而且在一些场景下确实有效。但问题也恰恰出在这里:把“可以干活”误解为“什么都能干”,是关于OpenClaw最常见的误判。
首先,它并没有变得更聪明。OpenClaw本身并不包含新的认知能力,能力上限仍然取决于背后的大模型。如果模型本身在推理、理解或生成上存在局限,那么无论外层的代理结构多么复杂,最终表现都不会突破这个上限。换言之,“龙虾”能做到什么,很大程度上取决于你接入的是哪个模型,而不是它自身“进化”出了什么新智能。
其次,它会行动,并不等于它真正理解。它确实可以拆解任务、执行步骤,但这种拆解往往是基于语言概率生成的,而不是稳定、严谨的规划能力。因此,在复杂任务中,它很容易走偏,比如重复操作、误解目标,甚至陷入循环。一旦出现这样的情况而不及时干预,那么用户除了得到一张金额不菲的词元费账单外,很可能无法得到任何有效结果。
再次,它的执行能力并不意味着可靠性。能调用工具,不代表调用正确;能连续运行,不代表每一步都合理。在涉及文件操作、系统命令甚至外部接口时,这种不确定性有时会带来实际风险。从这个意义上看,它更像一个需要监督的实习生,而不是一个可以完全放手的员工。
“龙虾”适合谁?不适合谁?
在OpenClaw突然爆火之后,很多人都产生了一种“FOMO心态”(注:FOMO是英文Fear of missing out的简称,意为害怕错失机会),担心自己不赶紧使用“龙虾”、学习“龙虾”就会落伍,也希望通过学习“龙虾”,尽快让自己的效率翻倍,甚至掌握所谓的财富密码。为此,他们不惜花费上千元去安装“龙虾”,花费上万元去听相关课程。从行为经济学的角度看,这种FOMO心态并非不可理解。毕竟,已有研究表明,错失本可以抓住的机会所带来的痛苦是巨大的,为了规避这种损失,付出一定成本也不能简单视为浪费。
但是,如果我们抛开这些焦虑情绪,进行更为客观的分析,就会发现,“龙虾”其实未必适合所有人。客观来看,OpenClaw是一种高度“挑人”的工具。它并不像搜索引擎或聊天机器人那样,几乎对所有人都“有点用”,而更像一件专业工具——用对了,效率可以成倍提升;用错了,不仅帮不上忙,反而可能增加负担,甚至引发风险。
那么,哪些人更适合“养龙虾”呢?在我看来,主要包括以下几类。
首先,是那些工作本身具有明显流程性的“流程型工作者”。他们的日常工作,并不是在一个单一界面中完成,而是需要不断在多个工具之间切换,将一系列步骤串联起来。以电商运营人员为例,他们一天的工作包括查看竞品数据、整理关键词、撰写商品描述、上传商品、监控转化率,再根据数据调整策略。这些工作中,每一步都可以用大模型辅助,但真正耗时的,是步骤之间的衔接和重复操作。
而OpenClaw的价值,就在于把这些“碎片化操作”整合为一个连续的执行过程。有了OpenClaw,他们不再需要逐个点击,而是可以定义一个目标,让系统自动完成整个流程,从而大幅提升效率。
其次,是近年来兴起的“一人公司”(One Person Company,简称OPC)或微型团队。这类人群面临的核心问题从来不是想法不足,而是“手不够用”。在现实中,他们往往需要同时承担产品、内容、营销、客服等多重角色,时间很快被消耗殆尽。而OpenClaw的意义,就在于将“规模问题”转化为“调度问题”。借助OpenClaw,他们不再需要通过招人来扩张,而是通过设计流程、调用多个智能体来扩展能力。
例如,内容创作者可以让“龙虾”负责信息抓取、素材整理、初稿生成,再由自己进行最终把关;独立开发者则可以让它自动运行测试、修复简单bug,甚至完成部分部署流程。在这些场景中,OpenClaw都可以有效地将原本需要多人协作的工作压缩到一个人可以调度的范围内,而用户只需充当管理者的角色。
再次,是那些本就具备一定技术能力或自动化思维的人。对于程序员、数据工程师,甚至熟悉脚本工具的用户来说,OpenClaw更像是一种“能力放大器”。他们原本就可以通过脚本实现自动化,只是需要投入时间编写逻辑、处理异常,而现在,这些工作可以部分交由智能体完成。例如,以前需要自己编写脚本去抓取网页、解析数据、生成报告,现在可以先让OpenClaw运行一版,自己只需在关键环节进行调整。这类用户的优势在于,他们清楚哪些环节可以自动化、哪些必须人工干预,因此能够更好地发挥OpenClaw的价值。
如果将这些人群抽象出来,会发现一个共同点:他们的工作是可以被“流程化描述”的。他们清楚自己要做什么,以及应当如何一步步完成。只要这两个问题明确,OpenClaw的能力就可以得到充分发挥。
按照这一思路,我们也可以反过来理解OpenClaw不适合哪些人群。
首先,是那些以“问题定义”为核心的工作者,例如学者、战略顾问、创意工作者。这类工作的难点不在执行,而在于不断重构问题本身。他们今天的研究方向,可能在明天就被推翻;一个创意方案,也往往需要反复试探与直觉判断。在这种情况下,他们很难预先设计出一套稳定流程,而缺乏流程,Open-Claw便难以发挥作用。尽管从理论上看,它可以帮助完成查资料、写初稿等工作,但带来的价值增量并不显著,甚至可能为负——因为这些“杂活”本身,往往也是灵感的重要来源,一旦被自动化,反而可能抑制思考。
其次,是那些任务本身较为简单或低频的用户。例如日常写邮件、做简单汇报、查资料,这些任务使用普通大模型已经足够,而且更直接、更可控。引入OpenClaw,反而需要额外的配置、调试与监控成本。
再次,是那些缺乏流程化思考能力的用户。很多人以为,只要告诉AI“帮我做好一件事”,它就会自动理解并执行。但现实是,如果目标模糊、约束不清,OpenClaw往往会以一种“看起来很努力”的方式不断尝试,却始终不得要领。例如,如果我们只是笼统地告诉OpenClaw“帮我做一个市场分析”,却没有明确范围、数据来源和输出形式,它就可能耗费大量词元,抓取大量无关信息,最终生成一份冗长却缺乏洞察的报告。
在很多自媒体上,都有一种流行说法,认为“龙虾”是一种能力的平权工具,有了“龙虾”,所有人都可以平等地掌握强大的AI能力。但通过上述分析可以看到,这种说法并不准确。实际上,“龙虾”更像是一种能力筛选器,它会把人群分为两类:一类是能够将复杂工作拆解为流程的人,另一类是依赖直觉与经验却难以将流程外化的人。前者会觉得“龙虾很好用”,后者则可能觉得“不过如此”。
这并不是工具对不同人公平或不公平,而是因为它本身建立在流程化的前提之上。理解了这一点,我们就可以根据自身需求来判断是否“养虾”,而不至于在FOMO情绪驱动下花费不必要的成本。
“龙虾热”:元宇宙狂欢2.0?
如果我们观察一下最近关于“龙虾”的舆情,就会发现一个现象:在对“龙虾”的态度上,世界各地存在显著差异。根据谷歌趋势(Google Trends)3月22日的数据,中国大陆的OpenClaw搜索指数达到了100,是全球最高。紧随其后的中国香港、新加坡、韩国和印度,搜索指数都明显低于中国大陆。一直作为AI创新前沿的美国,对OpenClaw的搜索指数也仅为9。欧洲国家对“龙虾”的态度则更为冷淡,英、法、德等国的相关搜索热度都处于较低水平。在欧洲各国中,唯一对“龙虾”表现出较高兴趣的是奥地利,不过,这种热度主要应归因于它是“龙虾之父”彼得·斯坦伯格的母国。


