老黄亲自登门送给他:首台DGX GB300量子位

3/19/2026

老黄又又又亲自上门送“显卡”了!

首台DGX Station(GB300)送给了卡帕西——这位AI时代的个人开发者代表。

△图源:英伟达官方博客

注意到没,就在这台“大玩具”上,老黄还附赠了一篇洋洋洒洒的“小作文”:

致Andrej——第一台DGX Station的拥有者:

AI智能体时代已经到来,这是一个令人难以置信的里程碑时刻,也让人想起我们一起走过的GTC早期岁月。

一路走来,你始终与我并肩同行。

而另一边,卡帕西也在𝕏上对老黄隔空发射爱心,并且透露自己准备用它搭一套个人AI集群,专门拿来折腾各种有意思的实验。

对了,针对老黄提到的“GTC早期岁月”,卡帕西还顺带解惑了一波:

后来的事情大家也都知道了,深度学习革命让英伟达这个“卖铲人”赚得盆满钵满。

所以,老黄这次上门送温暖,原来是来“报恩”的?(doge)

当然调侃归调侃,只需看一眼老黄曾经的上门服务案例,你就知道这背后实则大有文章了。

大约10年前(天哪都10年了),老黄把首台DGX-1送给了彼时还很年轻的OpenAI。而从那时起,深度学习开始真正走向工程化,AI进入“大模型前夜”。

再到近两年,他又分别给奥特曼和马斯克送上首台DGX H200、DGX Spark迷你超级计算机。这里头除了两人“闹掰”得分开送的原因外,背后的信号也很直接——大模型竞赛进入“深水区”,算力正在成为最终胜负手。

然后就是现在,卡帕西这位超级开发者成为老黄新的“座上宾”,这也意味着——

进入智能体时代,个人开发者正在登上舞台中央。

尤其在“龙虾”如此火爆的情况下,这股风潮无疑将更甚。

这次送给了个人开发者卡帕西

书归此次“老黄上门送温暖”事件。

之所以说这更多代表着个人开发者的胜利,主要还是因为卡帕西这个受赠对象,身上的标签实在过于鲜明了。

虽然这是位老朋友了,但咱还是简单回顾下他的履历。

卡帕西(英文名Andrej Karpathy),早年在斯坦福做深度学习研究,后来加入OpenAI成为创始成员之一。

在OpenAI待了一年半左右,被“负气出走”的马斯克挖到特斯拉,负责领导特斯拉自动驾驶系统的计算机视觉团队。

不过在特斯拉干了5年多之后,他又回归OpenAI了。But,这次回去也没待多久,然后就选择出来单干了……

这中间的弯弯绕绕我们不再赘述,只说他最近在干啥、以及留给人的最深印象。

总结起来就是,他正在把AI从“论文”和“大公司”,变成“一个人就能跑起来的系统”。

关注卡帕西个人账号的朋友都知道,这位AI大神近一两年几乎是在反复做三件事:

把最新论文快速复现成可运行Demo

手搓小而精的模型和工具链

搭建能长期运行的Agent系统(也就是大家口中的“龙虾”)

这些事情也让他逐渐成为众人眼中的个人开发者代表——一个人,就能完成从想法到产品的完整闭环。

而这,恰恰就是当下智能体时代最稀缺、也最具代表性的能力。

再加上他和老黄之前的“私交”(比如前面提到的GTC),此时此刻,卡帕西就成了那个被老黄选中的人。

而要问选中之后干啥?老黄的用意当然是“带货”啊(提前滑跪了)。

由于搭载GB300的DGX Station亮相不多,所以咱也捎带手介绍下。

概括而言,这台机器毫无疑问就是为“龙虾”这样的智能体量身定制的。

别看这台机器长得像个“桌面工作站”,本质上其实是把一整套数据中心级AI算力,压缩进了个人开发者的桌面上。

简单说,DGX Station (GB300)干的事就一件——把原本属于机房的能力,搬到你手边。

它用的是和数据中心同源的GB300架构,相当于你在本地写代码、跑模型,其实就是在“迷你版数据中心”里干活。

748GB统一内存+20 PFLOPS算力,意味着不只是能跑模型,而是可以直接上手折腾千亿甚至万亿参数级别的系统。

更关键的一点是,这套环境不是“孤岛”——你在本地跑通的东西,可以无缝迁移到云端或更大规模的集群里,不需要推倒重来。

所以你会发现,它解决的不是“能不能跑AI”的问题,而是另一个更实际的需求:

能不能让AI一直跑下去。

话说到这里,相信最近已经被“龙虾”360°环绕的大家,已经明白这台设备的定位和作用了。

而当我们把视线再拉远,你就发现老黄在这股“龙虾热”里,还有后手。

除了找“代言人”,英伟达还正在奋力补齐整套Agent基础设施——

从硬件到软件,一个都没落下。

英伟达博客里提到,为了配合硬件(指这次亮相的DGX Station GB300),他们还向OpenClaw项目贡献了一个开源堆栈——NVIDIA NemoClaw。

NemoClaw能让开发者用一条命令,就把一个“随时在线”的AI助手安全部署起来。

它内置了一套面向AI智能体的运行时环境——NVIDIA OpenShell,既负责调度模型与工具调用,也通过沙箱机制保证整个执行过程安全可控。

如此一来,从算力到安装部署,老黄就又把这门“龙虾生意”做成了产业链。

老黄亲自上门送显卡,已成风向标!

实际上,细数老黄为数不多的“上门服务”,你就知道这位算力掌门人的眼光有多毒辣了。

Scroll for more