你养的“龙虾”,其实在给大厂打黑工码头青年

3/10/2026

这两天和国内两个朋友通电话,他们不约而同提到了同一个词——“龙虾”。

一个问我:“你养龙虾了吗?”另一个说:“你知道吗,现在国内很多人都在养龙虾。”

我有点意外。

龙虾,我熟悉。一个多月前,我就写过一篇关于“龙虾”的文章,当时算是比较早触及这个话题的。前段时间我也认真研究过部署方法,甚至一度准备动手试试。但出于安全方面的考虑,最后还是没有真的装。

没想到短短一个多月,这件事在国内已经火到这种程度。

深圳腾讯总部楼下排队装OpenClaw的新闻、抖音上“全民养龙虾”的视频,还有各种教程、截图、晒Agent任务的帖子,几乎一夜之间就刷满了社交媒体。

所谓“养龙虾”,其实是国内网友对 AI Agent 的一种戏称。很多人把像 OpenClaw 这样的智能体部署在自己的电脑或服务器上,让它长期运行,自动执行各种任务。因为这些程序往往在后台不停工作,像活物一样喂数据、做事情,于是被网友形象地称为“养龙虾”。

很多人会把这件事理解为一场技术浪潮。但如果只从技术角度去解释,其实是不够的。

真正有意思的问题是:为什么这种事情,总是最先在中国变成一种社会现象?

回头看中国互联网二十多年的历史,你会发现一个很稳定的规律。每一次新技术出现,中国用户都会迅速涌进去试一试。从早年的MP3、安卓刷机,到后来微信红包、抖音滤镜,再到AI绘画、ChatGPT,几乎每一波技术浪潮都会在中国形成一种类似全民实验的氛围。

很多人下载一个新应用、部署一个新工具,并不是因为马上有实际用途,而是因为一种很微妙的心理:如果别人都在用,而自己不会用,好像就落后了一步。

OpenClaw恰好击中了这种情绪。

这种技术焦虑,在今天的AI时代变得更加明显。

过去几年,AI一直停留在一种比较抽象的形态里——聊天、写作、画图。很多普通人觉得它很厉害,但又很遥远。

OpenClaw带来的变化,在于它让AI看起来第一次真正会干活。

你给它一个任务,它会自己拆解步骤,去搜索信息、调用软件、整理结果,然后再把结果交给你。虽然很多时候还很笨拙,但那种感觉已经不一样了。

这种变化对普通人的冲击其实非常大。

中国社会对效率有一种非常强烈的崇拜。八十年代有句广为流传的口号:时间就是金钱,效率就是生命。从中可见,中国人对效率的执念。只要一项技术被证明可以帮你多快好省赚钱,它很容易迅速获得关注。中国人讲究实用,不玩虚的。

不像欧美用户那样,先讨论伦理,再决定用不用,这个过程可能要很久。这虽然保护了个人权利,但也常被批评为监管过度导致创新迟滞。

中国人的习惯是先用,再看。

无论是移动支付还是现在的生成式 AI,中国企业更擅长直接把产品推向市场,通过亿万用户的真实反馈来快速修正。

伦理讨论可以先上车后买票,隐私泄露、算法歧视等问题出现后,再通过行政手段或快速立法来打补丁。

比如3月10日,国家互联网应急中心就发布了关于OpenClaw安全应用的风险提示。此前,工业和信息化部网络安全威胁和漏洞信息共享平台也发布过相关的安全风险提示。

这些都相当于打补丁。这事,中国人做起来很在行,轻车熟路。

就在今年,这种差异在 AI(通用人工智能) 领域体现得尤为明显。在欧美,公众还在为AI 是否拥有意识、数据版权的法理溯源争论不休,甚至因此限制某些模型的公测。

而中国已经在尝试将 AI 大模型深度嵌入县域治理、电商直播和工业制造。

在这种文化环境里,Agent技术几乎天然具有吸引力。

但这还不是全部原因。

中国互联网还有一种很独特的文化,折腾。

很多技术在其他国家是专业工具,在中国却会变成一种大众爱好。路由器刷机、自动化脚本、智能家居,这些东西在国内一直有非常庞大的用户群体。很多人使用技术的乐趣,并不只是效率,而是过程本身。

OpenClaw在某种意义上正好继承了这种传统。它既是AI工具,也是一个新的折腾玩具。

你可以给Agent起名字,让它自动跑任务,看它一步步尝试、出错、修正,像养一个半成品的数字助手。于是技术工具慢慢变成一种游戏,一种参与感很强的社会行为。

当这种行为进入短视频平台之后,传播速度就会突然加快。

中国的社交媒体有一种很典型的扩散路径,技术圈的东西一旦进入抖音,就会迅速变成一种梗。人们开始晒截图、录视频、互相模仿,一个原本属于极客社区的工具,很快就会变成一种全民话题。

“养龙虾”就是这种传播机制的产物。

中国互联网还有一个独特现象,那就是工程师文化非常普及。中国程序员总数去年已经突破940万,当之无愧的世界第一。程序员多,技术社区极其活跃。很多技术扩散路径是,从程序员到同事,再到家人。所以经常会出现,,程序员先玩,普通人跟进。

这次“养龙虾”也是这种模式。

另外,中国是全球唯一一个同时拥有三种条件的国家:最大的互联网用户规模、极其活跃的开发者社区,以及低廉的AI推理成本。

截至2025年12月,中国网民规模已达到 11.25亿人,互联网普及率达 80.1%。

低廉的AI推理成本这一点值得多说几句。

很多人讨论AI时,习惯关注模型能力,比较谁更聪明、谁参数更多。但真正决定AI能否普及的,其实是成本。

过去两年,大模型的主要使用方式是聊天。一个人一天可能问十几次问题,这样的使用频率,对算力的消耗其实非常有限。

2026年,阿里、字节、腾讯三家加起来,预计要在算力上砸四五百亿美元。数据中心里有成千上万张AI加速卡,如果缺少足够的调用需求,这些昂贵的设备就会处于低利用率状态,消耗电力、产生折旧,却无法产生相应收入。

ChatGPT爆红之后,大模型最常见的使用场景其实只是聊天。用户偶尔让AI写封邮件、画张图、做个短视频,这类轻量级任务消耗的Token非常有限。对于那些已经投入巨额资金建设算力中心的大厂来说,这样的使用强度远远填不满服务器的负载。它们真正需要的,是一种能够持续运行、自动调用模型的应用形态,一个可以不断吞噬Token的怪物。

这时候,“龙虾”就来了。

一个Agent在执行任务时,会不断向模型发起请求:理解任务、拆解步骤、搜索信息、调用工具、检查结果、再进行下一轮推理。一个复杂任务跑下来,调用次数可能是普通聊天的几十倍甚至上百倍。

换句话说,Agent本质上是一种持续燃烧算力的机器。

对于大厂来说,真正的暴利不仅仅是卖 Token 的钱。

当几百上千万个“龙虾”在全中国的电脑里跑任务时,它们其实在帮大厂做一件最值钱的事:收集真实的、非结构化的、跨软件的交互数据。这种数据是训练下一代更强模型的“原油”。大厂提供廉价的算力,换取了全社会帮它标注任务流程。

如果你养的“龙虾”习惯了调用某个大厂的模型 API,你就会产生路径依赖。当所有人的办公、搜索、创作都建立在一个生态的 Agent 体系之上时,大厂就成了这一行业的收费站。

Scroll for more