黄仁勋暴论:AGI已经实现,Ilya错了量子位
我们已经实现了AGI。
老黄最新的暴论,震惊了所有人。
但这还不是全部,在Lex Fridman的最新专访中,黄仁勋还讲了更多…
不是随口感慨的空谈,老黄这次从技术、社会、人性各个维度分别探讨了这件事,明显最近对此有不少思考。
暴论频出,火力全开:
Ilya错了,预训练远未触顶,合成数据将进一步推动数据规模扩张。
随后更进一步,驳斥了同行对“推理时Scaling”这条路线的低估。
推理绝非轻量级计算。若说预训练是阅读,那推理就是思考,而思考远比阅读难。
而整场访谈最有趣的,无疑是在老黄所谓“AGI已经实现后”,他基于这个第一性原理,对未来所做出的展望。
OpenClaw就是Token时代的iPhone。来最常跟你聊天,或许是你的龙虾。
智能将成为一种可按需定价的商品,以Token的形式大规模流通。
程序员不会被AI取代。写代码其实并不是核心能力,这个群体将从3000万激增至10亿。
为了实现太空旅行,我可能会做个人形机器人,再通过模型的形式把我的意识上传进去。
智能这个词被过度神化了。人性、品格、同情心与慷慨,这些才是最宝贵的特质。
这是老黄首次做客Lex Fridman的节目,Lex也是终于逮着这个机会了,从各个维度把老黄“挖”了个遍。
两小时的对话,跨度极大。从英伟达对未来数据中心的宏大构想,到老黄独特的管理哲学与处世之道……甚至最后一度聊到哲学。
老黄也再次展示了感性的一面。
最好的结果,是在工作中死去的。最好是瞬间发生,不要有太长时间的痛苦。
以下附上访谈全文。为保证可读性,量子位在不改变原意的基础上,对内容做了部分调整。
Lex Fridman对话黄仁勋
Scaling laws撞墙了吗?
Lex Fridman:现在还信scaling law吗?
黄仁勋:信,而且现在的scaling law更明显了。
Lex Fridman:pre-training、post-training、test time、agentic scaling之中,最让你担心、甚至睡不着觉的瓶颈是什么?
黄仁勋:在pre-training scaling law阶段,大家的判断其实没错,高质量数据的总量会限制AI的智能上限。数据越多、模型越大,AI就越聪明。
后来Ilya Sutskever说数据用完了,pre-training走到头了,行业一度非常恐慌,觉得AI要到此为止。显然不是这样。
数据还会继续增长,其中很大一部分会是合成数据。
我们彼此交流、传递知识的大多数数据,本来就是“合成”的。不是直接从自然界提取的,而是人创造出来的,我消化、再加工、再生成,别人再消化。
现在AI已经可以基于真实数据,大规模生成数据。在post-training阶段,数据规模依然在扩展,只是人类生成数据的占比会越来越小。训练的瓶颈,其实从数据转移到了算力。
然后是test time。
我记得有人跟我说,推理很简单,难的是pre-training。推理芯片会是小芯片,不需要NVIDIA这种复杂昂贵的系统。推理会是个大市场,但最终会商品化,谁都能做。
这个逻辑在我看来一直都站不住脚。因为推理就是思考,而思考是很难的,远比阅读难。
pre-training更像是记忆和泛化,是读和读,是在关系中找模式。但思考,是解决问题,用第一性原理去尝试不同路径。test time scaling的本质,是推理、规划、搜索。
这种计算怎么可能是轻量级的?
再往下,在inference和test time scaling之后,我们已经创造出了一个agentic个体。
它有一个大语言模型,但在test time,它会去做研究、查数据库、调用工具。更重要的是,它会不断派生子agent。
这就是下一个scaling law,agentic scaling。本质上是AI的乘法,你可以派生任意多的agent。
这些agent在运行过程中会产生大量数据和经验,其中高质量的部分会被保留下来,送回pre-training,用于记忆和泛化,再经过post-training,再经过test time增强,再由agentic系统输出给行业。
Lex Fridman:不同组件需要不同硬件才能做到最优,比如混合专家和稀疏性。你必须提前判断AI的发展方向,但硬件根本不可能一周就改。
黄仁勋:AI模型架构大概每六个月就会有一次变化,而系统架构和硬件架构大概三年一个周期。所以你必须去判断两三年后的方向。
第一,我们自己做研究,有基础研究,也有应用研究。我们自己训练模型,有第一手经验,这也是协同设计的一部分。
第二,我们和几乎所有AI公司都有深度合作。我们可以感知他们遇到的问题。
还有一点,要有足够灵活的架构,能跟着变化走。CUDA的价值就在这里,一方面是极致加速能力,另一方面是高度灵活。
专业化和通用性之间的平衡非常关键。太专业,适应不了算法变化;太通用,就失去加速优势。
你对比Grace Blackwell机架和一年后的Vera Rubin机架,会发现差别非常大。
Grace Blackwell的设计目标很单一,就是处理LLM。而Vera Rubin机架里,加入了存储加速器,全新CPU Vera,用于运行LLM的NVLink 72,还有一个新的扩展机架Rock。
这套系统和上一代完全不同,多了很多组件。上一代是为MoE大模型推理设计的,这一代是为agent设计的,而agent需要调用工具。
Lex Fridman:这套系统的设计,其实发生在Claude Code、Codex这些产品出现之前。这种判断来自哪里?
黄仁勋:不管技术怎么发展,如果你把大语言模型当成一个数字工作者,它需要什么?
它需要访问真实数据,也就是文件系统。它需要做研究,因为它不可能什么都知道。它需要使用工具。
有人说AI会让软件消失,这是完全不成立的。
十年后最强的agent,哪怕是一个人形机器人,它来到你家,是更可能直接使用你现有的工具,还是把手变成锤子、变成手术刀、甚至用手指发射微波来烧水?
显然是前者。它会用你的微波炉。第一次不会没关系,它可以联网,读说明书,很快就会了。我刚才描述的,其实就是OpenClaw的核心能力。
OpenClaw对于agentic系统的意义,就像ChatGPT之于生成式AI。
Lex Fridman:你刚才讲了很多过去被认为是瓶颈、后来被突破。下一个瓶颈会是什么?
黄仁勋:电力是一个问题。
过去十年,摩尔定律大概带来了100倍的计算提升,而我们通过规模扩展,实现了一百万倍。
接下来,我们要继续依靠极致协同设计,把这个趋势延续下去。
能效直接决定一家公司的收入,也决定一座工厂的产出能力。我们会把能效推到极限,用最快的速度把token成本压下来。
虽然我们的硬件价格在上涨,但token生成效率提升得更快,所以token成本在持续下降,基本每年下降一个数量级。
Lex Fridman:供应链的瓶颈会让你睡不着吗?比如ASML的EUV光刻机、台积电的CoWoS封装、SK海力士的高带宽内存?
黄仁勋:历史上几乎没有公司在我们这个体量上还能以这样的速度增长,而且还在持续加速。所以整个上下游供应链,对我们来说都非常关键。
我花了很多时间去跟合作伙伴的CEO沟通一件事:到底是什么在驱动这波增长,为什么它还在加速?
我会告诉他们现在的业务情况,近期的增长驱动力,正在发生什么,以及接下来要去哪里。他们会基于这些信息,去判断自己的投资方向。
当然,我也会亲自去拜访他们,讲清楚这个季度、明年、后年会发生什么。
Lex Fridman:但有意思的是,你好像没有因供应链而“睡不着”。
黄仁勋:因为该做的事情我都在做。这些问题我都逐一推演过。
从最早的DGX-1,到现在NVLink-72的机架级计算,系统架构已经完全变了。这对软件意味着什么,对工程意味着什么,对设计、测试、供应链意味着什么,我都会一一推演。
数据中心与能源
Lex Fridman:能源问题应该怎么解决?
黄仁勋:现在的电网,是按照最极端情况来设计的,会预留冗余。
但现实是,99%的时间,我们都远远达不到那个峰值。真正的极端情况,只会出现在一年中很少的几天,比如冬天、夏天的极端天气。
绝大多数时间,我们的用电水平大概只有峰值的60%左右。
也就是说,99%的时间,电网其实有大量闲置电力。
所以我在想,有没有可能通过更好的理解、契约设计和计算机架构设计,让数据中心在电网需要满负荷供电的时候,主动让出一部分电力?
在那段时间里,我们可以用备用发电机,或者把工作负载迁移到别的地方,甚至让计算机降速运行。比如稍微降低性能、减少功耗,让响应时间稍微变长一点。


