黄仁勋:Token决定科技企业营收与生死钛媒体
3月17日凌晨,2026年英伟达GTC大会在圣何塞正式开幕。黄仁勋表示,要支撑未来数兆美元规模的智能经济,必须从系统工程的视角重新设计整个计算堆栈。英伟达正试图通过全面掌控能源、芯片、基础设施、模型、应用这五层蛋糕,完成从芯片制造商到AI时代发电商的历史性蜕变。
而对于AI时代进程的判断,黄仁勋抛出了一个极其宏大的产业愿景:单纯的数字生成时代正在走向深化,我们正在迎来物理AI的大爆炸以及代理式AI的全面普及。如果说过去几年AI只是在屏幕内作答,那么从2026年开始,AI将拥有在三维物理世界中行动与交互的实体能力,并具备自主执行复杂任务的代理系统。英伟达正试图通过软硬一体化的全栈生态,再次重新定义计算基础设施。
我们梳理了这场发布会的核心信息,以下是重点内容:
1. 算力需求重估:到2027年计算市场规模将突破1万亿美元
黄仁勋在演讲中为AI基础设施的未来需求定下了基调:到2027年,全球计算需求将突破1万亿美元大关。他强调,在这个全新的AI时代,Token(词元)就是新的基础货币。生成Token的成本与效率直接决定了科技企业的营收与生死。英伟达致力于打造全球每Token成本最低的计算方案,因为这关乎整个行业运转的经济学底层逻辑。
2.加速计算才是时代答案:Vera Rubin平台全面接棒计算霸权
面对外界对摩尔定律终结的探讨,黄仁勋给出的答案是不断进化的加速计算架构。继Blackwell之后,下一代Vera CPU + Rubin GPU架构(Vera Rubin Ultra)正式成为全场焦点。
这一专为AI代理系统打造的平台展现了惊人的扩展能力,能够在一个系统中连接多达144个GPU,并实现了硬件与软件的彻底垂直整合。在能效与回报率方面,这一新架构的潜力令人侧目,结合全面普及的液冷技术(Liquid Cooling)和封装光学器件(Co-packaged optics),新架构不仅极大优化了能耗比,更被预期能为企业带来高达5倍的营收产出比,进一步巩固了英伟达在数据中心领域的绝对统治力。
3. 巩固图图形与生态护城河:CUDA二十周年积累数亿GPU装机,DLSS 5也快来了
除了硬核的AI基建,英伟达的传统艺能同样在持续进化。时值CUDA生态诞生20周年,CUDA已在全球范围内累积了数亿GPU的装机量,并渗透进了每一个技术生态中,飞轮正在以前所未有的速度加速运转。同时,大会还透露了处于研发前沿的DLSS 5技术,预示着基于神经渲染的技术迭代将再次颠覆AI驱动的图形和高端游戏体验。
4. 押注代理式AI:推出NemoClaw,构建AI Agent的专用操作系统
在软件与生态侧,英伟达正式推出了NemoClaw参考堆栈。这相当于为代理式计算机打造了一个专用的操作系统底座。借助NemoClaw,开发者能够在保障底层隐私与安全的前提下,通过简单的指令快速构建、部署和加速属于自己的个性化AI Agent。这标志着AI的交互逻辑正在发生根本性转变:从被动响应的对话工具,进化为具备自主规划和执行能力的超级个人助理。
5.物理AI大爆炸:从自动驾驶到具身智能的全面落地
通用语言模型并不是智能的终点,真正的下一代AI必须拥有物理躯壳。黄仁勋强调了物理AI(Physical AI)的概念,AI必须学会理解重力、摩擦力以及复杂的三维物理空间。
在自动驾驶领域,比亚迪、现代、日产等头部车企已纷纷加入英伟达的Robotaxi就绪平台;而在通用机器人领域,英伟达发布了专为人形机器人打造的通用基础模型 Project GR00T。它能够让机器人通过观察人类行为来学习自然语言和模仿动作。此外,英伟达还大幅更新了Isaac机器人平台,推出了专为机械臂控制和3D视觉环境感知打造的全新软硬件库。英伟达与迪士尼幻想工程合作打造的《冰雪奇缘》雪宝(Olaf)实体机器人也踏上GTC舞台,与黄仁勋亲密互动。
在演讲的最后,黄仁勋的愿景已不再局限于传统的硬件厂商范畴,英伟达正在构建统治下一个时代的AI工厂。从底层的Vera Rubin超算集群,到NemoClaw代理操作系统,再到物理机器人生态,英伟达正试图包揽AI赋能现实世界的每一层基础设施,让加速计算像一百多年前的电力一样,彻底融入人类文明的日常运转之中。
以下为黄仁勋演讲内容全文:
1. 欢迎来到GTC:探讨AI生态与“五层蛋糕”架构
欢迎来到GTC!我只想提醒大家,这是一场技术大会。这么多人在清晨就排起了长队,很高兴见到在座的各位。在GTC我们将探讨技术与平台。NVIDIA拥有三大平台,大家可能以为我们主要讨论的是CUDA X,但系统是我们的另一个平台,现在我们还有一个名为AI Factories的新平台。我们将讨论所有这些内容,但最重要的是我们要讨论生态系统。
在开始之前,我要感谢赛前节目主持人Sarah Go和Alfred Lin,以及NVIDIA的首家风险投资机构Sequoia Capital的Gavin Baker。作为首位主要机构投资者,他们深耕技术领域,洞悉行业动态,拥有广泛的技术生态系统。当然也要感谢我亲手挑选并邀请的各位全明星VIP嘉宾,此外我还要感谢所有到场的赞助公司。NVIDIA是一家平台公司,拥有技术、平台以及丰富的生态系统。今天这里汇聚了全球100万亿美元产业的代表,共有450家公司赞助了本次活动,拥有一千场技术分会和2000位演讲嘉宾。
本次大会将涵盖人工智能五层蛋糕架构的每一层,从土地、电力和建筑等基础设施,到芯片、平台和模型,而最终让整个行业腾飞的将是所有的应用程序。
2. CUDA问世20周年:庞大装机量驱动飞轮效应
一切都始于这里,今年是CUDA问世20周年。20年来我们一直致力于这一架构的研发。这项革命性的发明通过单指令多线程编写标量代码即可衍生出多线程应用,这比SIMD更容易编程。我们最近还添加了Tiles,以帮助开发者对Tensor Core及当今人工智能基础数学结构进行编程。目前已有数千个工具、编译器、框架、库和数十万个公开的开源项目,CUDA已经深度集成到每一个生态系统中。最难实现的一点是庞大的装机量。
我们花了20年时间在全球构建起数以亿计运行CUDA的GPU和计算系统,覆盖了每一个云平台和计算机公司,服务于几乎所有行业。CUDA的装机量正是推动飞轮加速转动的核心动力。装机量吸引了开发者,开发者随后创造出如深度学习等实现突破的新算法。这些突破催生了全新市场并建立起新的生态系统,吸引更多公司加入,从而创造了更大的装机量。这种飞轮效应目前正在加速,NVIDIA库的下载量正以惊人的速度增长。这种效应不仅让计算平台能支持众多应用和突破,还赋予了基础设施极长的使用寿命。
有如此多的应用可以在NVIDIA CUDA上运行,我们支持AI生命周期的每个阶段和每个数据处理平台,加速各种基于科学原理的求解器。正因应用范围如此之广,一旦安装NVIDIA GPU,其使用寿命周期就极长。这也是为什么早在六年前出货的Ampere架构在云端的定价依然在上涨。高装机量、显著的飞轮效应和极广的开发者覆盖范围,加上我们持续更新软件,使得计算成本不断下降。加速计算极大提升了应用速度,随着我们在软件生命周期内的持续培育和更新,用户不仅能获得初次使用的性能提升,还能获得加速计算带来的持续成本降低。因为装机量庞大,我们发布的新优化方案能惠及数以百万计兼容架构的GPU,覆盖全球用户。动态组合扩大了NVIDIA架构的影响力,加速增长的同时降低了计算成本并促进新增长,这就是CUDA的核心价值。
但我们的旅程实际上始于25年前的GeForce。GeForce是NVIDIA最伟大的营销活动,许多人是伴随它长大的。早在你们自己负担得起之前,父母就付钱让你们成为了NVIDIA的客户,直到有一天你们成为出色的计算机科学家和真正的开发者。GeForce造就了今天的NVIDIA并孕育了CUDA。25年前我们发明了全球首款可编程加速器——像素着色器,旨在让加速器具备可编程性。5年后CUDA诞生了。我们当年倾尽全公司利润所做的最大投资,就是凭借GeForce将CUDA推广到每台电脑上。历经20年和13代产品,CUDA现已无处不在。十年前我们推出了RTX,针对现代计算机图形时代彻底重新设计了架构。GeForce将CUDA推向世界,也让众多先驱发现GPU是加速深度学习的良师益友,从而开启了AI大爆炸。十年前我们决定融合可编程着色技术并引入硬件光线追踪,当时我们就认为AI将彻底变革计算机图形学。正如GeForce将AI带给世界,现在AI将反过来彻底变革计算机图形学。
今天我将展示下一代图形技术——神经渲染,这是3D图形与人工智能的融合,也就是DLSS 5.0。我们融合了可控的3D图形、虚拟世界的结构化数据与生成式AI的概率计算。结构化数据完美受控,结合生成式AI,创造出精美令人惊叹且具备可控性的内容。这种将结构化信息与生成式AI融合的概念将接连不断地影响各个行业,结构化数据正是值得信赖的AI的基石。
接下来我们要详细探讨结构化数据。大家熟知的SQL、Spark、Pandas、Velox以及Snowflake、Databricks、Amazon EMR、Azure Fabric、Google Cloud BigQuery等超大型平台都在处理数据框。这些数据框是巨大的电子表格,保存着企业计算和业务的单一真值。过去我们努力加速结构化数据处理,以更低成本和更高频率让公司高效运行。未来AI将以极快的速度使用这些结构化数据库。除此之外,还有代表全球绝大部分信息的非结构化生成式数据库,如向量数据库、PDF、视频和演讲等。每年生成的90%的数据都是非结构化数据。直到现在由于缺乏简便的索引方式且难以理解其含义,这些数据一直无法被高效查询和搜索。
现在我们让AI来解决这个问题。利用多模态感知与理解技术,AI能够阅读PDF并理解其含义,将其嵌入到可搜索和查询的更大结构中。为此NVIDIA创建了两个基础库:用于数据框和结构化数据的cuDF,以及用于向量存储和非结构化AI数据的cuVS。这两个平台将成为未来最重要的平台,我们正将其深度融入全球复杂的数据处理系统网络中。
3. 赋能全球企业与云服务:AI时代的加速计算
今天我们将发布几项重要合作。IBM作为领域特定语言SQL的发明者,正在使用cuDF加速watsonx的数据处理。60年前IBM推出了开启计算时代的System/360,随后SQL和数据仓库构成了现代企业计算的基石。今天IBM与NVIDIA正通过利用GPU计算库加速watsonx.data的SQL引擎,为AI时代重新定义数据处理。由于当前CPU数据处理系统已无法满足AI对海量数据集的快速访问需求,企业必须转型。例如雀巢每天要做数千次供应链决策,在CPU上每天只能刷新几次汇总了全球交付事件的订单到现金数据集市,而在NVIDIA GPU上运行加速的watsonx后,速度提升了5倍且成本降低了83%。
AI时代的加速计算已经到来。我们不仅加速了云端数据处理,也加速了本地部署。全球领先的系统和存储制造商Dell与我们合作,将cuDF和cuVS集成到Dell AI数据平台中以迎接AI时代。我们还与Google Cloud合作加速了Vertex AI和BigQuery。在与Snapchat的合作中,我们将其计算成本降低了近80%。当你加速计算和数据处理时,不仅获得了速度和规模优势,最重要的是获得了成本优势。摩尔定律的核心是性能每隔几年翻倍,但它现在已经后劲不足。加速计算让我们能够实现跨越。
NVIDIA作为一家算法公司,凭借广泛的市场触达和庞大的装机量,通过持续优化算法不断降低计算成本,为大家扩大规模并提升速度。NVIDIA构建了加速计算平台并提供RTX、cuDF、cuVS等一系列库,最终将其集成到全球的云服务和OEM厂商中触达全球。这种合作模式正在Google Cloud、Snapchat等平台上不断重复。我们为在JAX、XLA和PyTorch上所做的出色工作感到自豪。我们是全球唯一在这些框架上都表现卓越的加速器。像Baseten、CrowdStrike、Puma、Salesforce等不仅是我们的客户也是开发者。
我们将NVIDIA技术整合到他们的产品中,并将他们带入云端。我们与云服务提供商的关系本质就是为他们带来客户。大多数云服务提供商都非常乐意与我们合作,因为我们将源源不断地为所有人提供加速。最后,今年让我非常兴奋的一件事是,我们将把OpenAI引入AWS,这将带动AWS云计算的巨大消耗并扩展OpenAI的计算能力。
在AWS,我们加速了EMR、SageMaker和Bedrock。NVIDIA与AWS进行了深度集成,他们也是我们的首个云合作伙伴。在Microsoft Azure方面,我们为其打造并安装了首台NVIDIA A100超级计算机,这为后来与OpenAI的巨大成功合作奠定了基础。我们与Azure的合作由来已久,不仅为其云服务和Bing Search提供加速,还与他们的AIFoundry开展了深度合作。随着AI在全球范围内的扩展,Azure Regions的合作也变得极其重要。我们提供的一项核心功能是机密计算(Confidential Computing)。机密计算能够确保操作员无法触碰或查看数据和模型。NVIDIA GPU是全球首款实现该功能的GPU,它能够支持并在不同云端和地区安全部署OpenAI和Anthropic等极其宝贵的模型。这一切都要归功于至关重要的机密计算技术。
在客户合作方面,Synopsis是我们的重要合作伙伴,我们正在加速其所有的EDA和CAU工作流,并落地于Microsoft Azure。我们既是Oracle的首家供应商,也是他们的首位AI客户。让我非常自豪的是,我首次向Oracle解释了AI云的概念,并成为了他们的首位客户,从那时起Oracle便开始腾飞。我们在那里落地了包括Quark、Cohere、Fireworks以及OpenAI在内的一大批合作伙伴。CoreWeave是全球首个AI原生云,其建立的核心目标就是在加速计算时代提供并托管GPU,为AI云提供托管服务。他们拥有出色的客户群,并且增长速度惊人。


