美国AI,无法摸着中国过河华尔街日报

4/8/2026

美国AI发展正遭遇电力基础设施的硬约束:电网老化、审批缓慢、社区阻力叠加,迫使科技巨头“自带能源”。相比之下,中国凭借特高压输电、智能调度与“算电协同”战略,在能源供给上构建了独特优势。美国无法复制中国模式,AI竞赛的下一战场,正在从算法转向电力的可得性与稳定性。

过去一年,硅谷巨头四处奔走,难为扎克伯格、马斯克们的不仅是算力,也包括更底层的能源基础设施。

为了解决这一问题,马斯克从海外买了一整座电厂运回美国,频繁安排团队来中国调研、采购光伏设备,扎克伯格代表的Meta签署了至少三个核能大单,谷歌也斥资48亿美元收购了一家核电站。

可以说,在美国,建成一条电网需要7年,然而硅谷巨头们却等不了1天。

大模型的训练和推理需求的暴增,使得数据中心对稳定、低延迟和可持续的供电需求远超传统互联网基础设施,进一步迫使各国电网在输配电能力、储能技术、可再生能源消纳以及“电—算”协同管理方面进行深度改造。

与此同时,电力资源本身开始转化为新型战略资产,国家与区域之间围绕“算力可得性”“绿色能源占比”和“数据主权”的竞争持续加剧,使数据中心从一种技术设施升级为影响全球权力结构的关键节点。

人工智能时代的“基础设施政治经济学”

正如铁路曾重塑物流速度与国土空间结构,互联网曾改变信息流通与商业组织方式,人工智能以“可计算性”为核心的生产方式也正在重构价值创造的逻辑,催生出新的产业分工、消费模式与治理体系。

在这一过程中,基础设施与资本投资成为释放人工智能经济潜力的根本前提。

换言之,竞争不仅表现在算法层面,也体现在谁能够更快、更大规模、更绿色地建设相应的基础设施网络。因此,资本流向从软件向“算力——能源——网络”的新型基础设施转移,成为当前全球经济格局变化的重要信号,而基础设施与投资能力的差异,将决定未来各国在全球人工智能经济中的位置与影响力。

回顾过去十年,全球数据中心的电力需求确实经历了显著的增长,但这种增长并非一直是“爆炸式的”,而是经历了一个从缓慢到加速的过程。

根据国际能源署(International Energy Agency,IEA)2024年的分析,2010年至2018年间,全球数据中心的能源使用量上升了约6%,年均增长率约0.7%。然而,自2018年以来增长约50%–80%,年均增长率相当于8%-13%。

如果这一趋势持续下去,预计到2030年,全球数据中心的能源消耗将达到600–800太瓦时(TWh),2025年国际能源署报告已更新至935太瓦时(相当于108GW容量的数据中心规模),占当年全球预测电力需求的1.8%–2.4%。若人工智能推动更高的消耗率(比如,大模型训练需求使得能源消耗可能以20%的年速度增长),则2030年数据中心的能源消耗可能达到1100–1400太瓦时,约占全球预测电力需求的3%–4%。

在中国,预计到2030年,数据中心的电力需求将比2020年翻一番,达到400太瓦时。

需求从缓慢到加速,两个阶段背景各有不同。

2018年之前,虽然数据服务量、网络流量与存储需求大幅上升,但由于服务器硬件效率提升、冷却技术改进、以及超大规模服务商(hyperscaler)数据中心替代传统低效小型数据中心的趋势,这十年的数据中心总体能耗并未跟随业务量同比“爆炸”。

然而,2018年之后,全球数据中心能源使用量明显上升,增速水平跃升至两位数区间。这一转变主要受AI算力需求、超大规模数据中心的扩张以及视频内容平台的流量激增共同驱动。数据中心已发展成为全球电力消耗增长最快的单一基础设施类型之一,并对能源系统、碳排放与数字治理带来新的压力。

特别是大模型问世以后,许多地区数据中心建设进入高速扩张期。全球到底有多少数据中心,并没有一个完全统一、被广泛接受的“官方”数字,因为各国对数据中心的定义、规模标准、登记方式等不尽相同,这使得估算其“总数”只能是一个近似值。

据市场统计机构Market.biz的一则汇总,截至2024年3月,全球大约有11800座数据中心正在运营。

就地域分布而言,Statista数据显示,到2025年11月,美国是全球数据中心数量最多的国家,拥有4165个设施,其次是英国(499个)、德国(487个)、中国(381个)、法国(321个)、加拿大(293个)、澳大利亚(274个)、印度(271个)、日本(242个)以及意大利(209个)。

必须承认,数据中心当前及未来的能源需求影响在全球范围内分布不均。举例来说,在美国,数据中心已占弗吉尼亚州总用电量的五分之一以上。在欧洲,2022年爱尔兰数据中心的电力需求为5.3太瓦时,相当于该国用电总量的17%。到2026年,随着人工智能应用快速渗透市场,这一用电量几乎会翻一番,达到该国电力需求总量的32%。

数据中心高度集中的特性及其极高的功率密度,在地方层面造成了重大挑战,包括电网接入与容量限制、水资源消耗以及社区反对等问题。

还有一个明显的趋势:主要由大型科技公司运营的超大规模数据中心近年来消耗的电力增长显著。从2017年到2021年,仅亚马逊、微软、谷歌和Meta四家公司的用电量总和就增加了一倍多,达到约72太瓦时。

科技公司的超大规模数据中心数量大爆发,给供给带来了巨大的挑战。

在许多国家,电力系统高度碎片化——由多个区域性或地方性电力公司独立运营,缺乏统一调度和容量规划——容易出现电压波动、功率不足或调度延迟等问题。此外,不同地区的电价、政策和电力投资水平差异较大,也增加了数据中心建设与运营的复杂性。总体而言,电力系统的碎片化不仅制约了数据中心的扩展能力,也在一定程度上影响了数字基础设施的可靠性和能源效率。

更根本的挑战是能源的供应来源本身。

许多国家的数据中心仍依赖燃煤、天然气等化石能源,这不仅带来碳排放压力,也容易受到燃料供应波动和价格变化的影响;而可再生能源尽管增长迅速,却存在分布不均和间歇性问题,缺乏足够的储能和智能调度手段,难以持续满足数据中心的“7×24小时”连续供电需求。在这样的背景下,核能被视为一种长期可行的解决方案。然而,核能的建设周期长、前期投资巨大,并且需要严格的安全监管和政策支持,因此在实际推广中仍面临技术成熟度、社会接受度和废料处理能力等挑战。

综合来看,数据中心的能源问题不仅是电网结构的技术问题,更是能源战略和政策布局的长期考验。

美国模式:市场驱动下的能源约束

美国的数据中心发展长期依赖市场机制与私营资本驱动。这一模式在互联网早期极为高效:企业能够基于电价差异与税收激励,在如俄勒冈州、弗吉尼亚州和得克萨斯州等地部署超大规模数据中心。

根据JLARC(The Joint Legislative Audit and Review Commission)的报告,弗吉尼亚州数据中心容量约占北美总容量的25%,以及全球总容量的13%。北弗吉尼亚的数据中心数量超过任何其他地区,人称“世界数据中心之都”。

JLARC报告指出,北弗吉尼亚的数据中心容量是下一个最大竞争者——中国北京——的两倍多,也是美国下一个最大数据中心聚集地俄勒冈州希尔斯伯勒(Hillsboro, Oregon)容量的三倍。该州税收减免使得希尔斯伯勒成为数据中心的热门选址地,为Meta、LinkedIn、TikTok、X等多家公司提供服务。然而,随着AI时代的到来,这一以市场为导向的扩张路径正逐渐遭遇基础设施与制度层面的硬约束。

虽然美国在人工智能的许多方面都领先于中国,尤其是软件和芯片设计,但美国在数据中心的电力供应和基建审批上却面临着巨大的瓶颈。人工智能算力如同“电老虎”,正在疯狂吞噬美国的电力资源,让本就脆弱的电网雪上加霜。

美国电网的大部分设施建于20世纪60至70年代。尽管系统已通过自动化及部分新兴技术得到升级,但老化的基础设施越来越难以满足现代电力需求。

根据美国土木工程师协会评估,美国电网的整体健康状况仅获得C+的评级,70%的变压器已超过25年的设计使用寿命,输电线路的平均年龄也已接近40年。

当人工智能的“脉冲式”耗电需求与电网的“老旧躯体”迎头相撞,这场危机不仅严重限制人工智能产业的进一步发展,更暴露出美国在基础设施投资上的长期落后与新兴技术需求之间的深层矛盾。如果不尽快打破制度性障碍、加大电网投资力度,美国在人工智能领域的算力优势很可能因为电力短缺而化为泡影。

据《华尔街日报》报道,OpenAI旗下名为Orion的模型在进行两次为期六个月的大型训练时,耗电量高达约110亿千瓦时。这一数字相当于100万个美国家庭一整年的用电量,也接近美国钢铁工业目前一年的耗电量。它足够一辆特斯拉Model 3行驶440亿英里,大约相当于往返海王星三次。

运行阶段的计算密集度和能耗远低于训练阶段,但随着使用这样的人工智能工具的人数增加,运行阶段的电力需求也会不断增长。而且,由于许多公司和个人担心在人工智能技术的应用竞赛中落后,“最新最强”的模型往往会吸引大量使用,从而对电力需求产生更高压力。

2025年9月22日,OpenAI宣布与英伟达合作建设耗电量高达10吉瓦(GW)的人工智能数据中心。芝加哥大学计算机科学教授安德鲁·钱(Andrew Chien)表示:“一年半前,他们还在讨论5吉瓦规模的项目,如今已将目标提高到10吉瓦、15吉瓦,甚至17吉瓦,呈现持续升级态势。”

OpenAI每个数据中心项目的估值约为500亿美元,计划总投资额达8500亿美元。仅英伟达一家就承诺投入1000亿美元支持这一扩张计划,并将提供数百万枚新款Vera Rubin图形处理器。

虽然这个例子展示了巨大的电力消耗,但它绝非个例;AI行业的其他主要玩家,如 Google、Meta、Microsoft、Amazon、Anthropic等,在训练下一代AI模型时,也都会走同样的道路。

由于对能源的迫切需求,美国一些数据中心正在选择自建发电设施,而不再依赖于州公共电网的连接。例如,在得克萨斯州西部的荒原上,一座由天然气驱动的发电项目正在兴建,它并非传统电力公司的投资项目,而是OpenAI与甲骨文(Oracle)共同建设的、价值高达5000亿美元的“星门”(Stargate)超级计算中心的重要一环。

同一时间,xAI公司正在田纳西州孟菲斯(Memphis)建造两座名为“巨像”(Colossus)的庞大数据中心,并开始采用燃气轮机自发电。全美还有十多个由全球领先的数字基础设施和数据中心服务公司Equinix运营的数据中心正依靠燃料电池提供电力。

这一风潮被称为“自带能源”(Bring Your Own Power)。有人称这是一场正在重塑美国能源格局的“能源狂野西部运动”。

然而,地方层面的社会阻力很大。数据中心虽然投资规模巨大,但其直接就业岗位通常仅为几十到几百人,远低于传统制造业项目。同时,其资源消耗却极为可观:一个大型数据中心每日用水量可达数百万加仑(约合数千吨),主要用于冷却系统;其用电量可能达到100兆瓦(MW)或更高——相当于一个小城市的用电量。在这种“高消耗——低就业”的结构下,地方社区的不满逐渐累积。

例如,在弗吉尼亚州的劳登县(Loudoun)、费尔法克斯县(Fairfax)和威廉王子县(Prince William),居民多次抗议数据中心扩张,认为其推高房价、占用土地并加剧电网压力。据报道,截至2025年,由于当地社区反对,至少有25个拟建的数据中心项目被取消。在俄勒冈州,一些项目因水资源紧张而遭到地方政府限制。这种“基础设施外部性”的显性化,使数据中心不再是单纯的商业投资项目,而成为美国地方政治议题。

综合来看,美国数据中心的发展正受到三重约束的叠加影响:一是电网基础设施的物理瓶颈,限制了算力扩张的速度;二是能源转型过程中的结构性不稳定,推高了供电成本与风险;三是地方社会与资源冲突,削弱了项目落地的政治可行性。这三者共同构成了一种新的约束机制,使原本高度灵活、以市场为导向的数据中心扩张模式,在AI时代逐渐显露出制度性边界。

中国独特的应对之道

中国电网在全球能源体系中具有独特优势,这些优势源于其规模化、工程能力、制度协调性以及技术与产业链的深度一体化。它不仅支撑国内工业化、城市化和数字化,也成为全球能源转型与数据中心产业布局的重要战略变量。

中国电力系统是世界上规模最大、最复杂的电网——建成了世界最长、容量最大的UHV(特高压)输电网络,UHV的远距离、低损耗特性,能够实现“西电东送”“北电南送”,在全球范围没有可比案例。UHV 使电网能够接入大型可再生能源基地(风、光、水)并稳定输送到负荷中心,为新能源消纳提供关键基础。

Scroll for more