中国超3万卡国产AI算力上线新智元

2/12/2026

从打破CUDA垄断到国家级万卡集群落地,中国算力大动脉终于接通,国产万亿大模型从此告别「裸奔」时代。

20世纪20年代,美国石油公司给中国戴上了「贫油」的帽子。

那是一个资源匮乏到极致的年代,一滴汽油几乎等于一滴血。

地质学家断言中国无油可采,嘲笑声从大洋彼岸传来。

可中国人硬是从荒原里一锹一锹掘出了黑色黄金,大庆、胜利、华北……一座座油田拔地而起,最终让「石油自给」四个字,成为中国工业奇迹最硬核的注脚。

历史总是惊人地相似。

这一次,美国卡脖子的不再是石油管道,而是高端芯片、CUDA生态,以及全球最顶尖的算力集群。

算力,尤其是万卡级算力,正在取代石油,成为新工业文明的「战略资源」。

美国巨头以吉瓦为单位疯狂扩张算力版图,甚至引发了「电荒」。

当海外巨头以吉瓦为单位扩张算力版图时,中国AI产业则面对芯片管制、生态壁垒和算力碎片化的三重夹击,必须回答一个根本命题——

中国的大模型,到底该用什么算力来喂?

今天的竞争早已不是「某家公司能不能搞到卡」,而是「一个国家能不能把算力当成公共基础能力来运营」。

换句话说:算力竞赛,从拼卡升级为拼基础设施!

而国家级顶层设计,已经明确落子。

2026年2月6日,工信部正式发布的《关于组织开展国家算力互联互通节点建设工作的通知》。

通知提出构建「1+M+N」国家算力互联互通节点体系——

1个国家算力互联网服务节点 + M个区域节点 + N个行业节点。

这份通知最重要的,不是技术条文,而是它释放的强烈信号:国家正在把算力当作「统一规划、统一标准、统一规则」的新型基础设施来建设与治理。

传达出的信息再明确不过:国家级顶层设计已经落子,「万卡大算力+万亿大模型」就是中国AI产业弯道超车的必然路径。

万亿大模型如何破局?

很多人以为算力贵,是因为供不应求。

可更深的原因是:算力是典型的「卖铲人」生意,一旦生态形成,上游就拥有定价权。

看看英伟达的财务数据就明白了:在AI浪潮驱动下,其毛利率长期处在令人咋舌的高位,2025财年毛利率达到约75%。

这意味着你买到的不是硅片,而是生态税!

于是头部厂商走出了一条极具代表性的路线:垂直一体化。

从芯片到系统到软件再到模型再到应用,全链条深度绑定,层层优化,性能拉满,效率极高。

谷歌在TPU体系上反复强调「系统级协同设计」(system-level co-design),把整套TPU Pod当作一个整体超级计算机来设计,从硅到互连到软件栈一体化推进。

这条路线当然强,但它只适合少数「超级玩家」——钱、人才、工程管理、供应链与组织能力缺一不可。

更关键的是:它不适合一个国家的产业全局。

因为国家要解决的不是哪家公司的需求,而是千行百业共同上车。

当美国都在为电力与并网头疼时,你就会明白:即便是超级玩家,都会在基础设施面前遇到现实的天花板。

所以,从产业全局看,更有生命力的路径,其实是——开放路线。

以AI计算开放架构为代表的开放路线,强调的是兼容多品牌加速卡、打通主流软件生态、降低迁移门槛。

两种模式都有价值,但从产业全局看——开放路线一定是最有生命力的,也是最适合大多数厂商的。

因为AI的未来不是一家独大,而是千行百业跨领域、跨层次地深度参与。

没有开放的算力底座,就不可能有繁荣的应用生态。

就像当年PC产业的IBM兼容机战胜苹果封闭体系,开放永远是产业规模化的终极答案。

可现实是残酷的。

全球竞争格局已发生了质变。

当前AI竞争已进入「规模战争」阶段——

国外对先进算力的技术和市场垄断,已成为制约中国AI产业发展的关键瓶颈。

单纯依赖单体技术优化和追赶已无法弥合差距,中国AI亟需探索一条更具战略全局安全优势的系统化突围之路。

过去「先模仿再超越」的幻想已经破灭,现在需要的是不破不立——建立完全自主可控的技术体系。

你必须让国产算力,不仅「有」,还要「好用」;不仅能跑,还要跑得稳、跑得满、跑得省;不仅能训练,还要能交付。

而行业正在用更具体的行动,把这件事从口号拉到现实。

2月10日,光合组织在郑州举办「国产万卡算力赋能大模型发展研讨会暨联合攻关启动仪式」,各方代表在此次会议上形成多项关键共识,几乎把行业痛点说透了:

自主算力是「生存底座」:没有万卡级的自主集群,万亿参数的国产大模型就是无本之木。这不仅是技术必选项,更是产业安全的生命线。

供需协同是「进化飞轮」:算力不是买来的,是用出来的。没有应用,算力就是「一堆铁疙瘩」。

全栈攻关是「破局利刃」:只有打通从底层芯片到顶层应用的每一根「毛细血管」,才能实现从「勉强可用」到「极致好用」的根本性跨越。

这为万亿参数级的国产大模型点明破局方向。

但到底如何做?行业做了哪些探索?

遇上国家超算互联网

国内有一个长期被严重低估的真相——

现阶段很多模型的发展是离不开和底层软硬件系统深度的结合。底层变得「更重」,对集群和框架的技术要求发生质变。

这颠覆了传统认知:过去,大家认为算法创新可以脱离硬件;现在发现没有自主算力,就没有模型创新自主权。

中国信通院人工智能研究所软硬件与生态部主任李论认为,整个软硬件的生态体系,是下一个阶段模型创新和智算设施竞争的焦点。

Scroll for more