为什么Anthropic成最后一个被逼表态者?邹英美美德博客

2/25/2026

Anthropic 在美国 AI 体系中的位置

Anthropic 属于全球极少数“基础模型提供者”,与 OpenAI、Google(DeepMind)、Meta 同处第一梯队。其 Claude 系列已进入美国政府与大型企业核心系统。公司背后有亚马逊与谷歌的重资产级投入,在算力、云资源与模型规模上具备完整工业能力,因此它并非边缘玩家,而是美国 AI 供应链中的关键节点。

正因为如此,这次被国防部长当面下达“最后期限”的不是一家初创公司,而是美国人工智能产业链中的关键枢纽。

近日,美国国防部长 Pete Hegseth 向 Anthropic 下达最后期限:必须在规定时间内开放其模型,供军方“不受限制使用”,否则将面临合同取消、供应链风险认定,甚至可能被动用《Defense Production Act》。

这不是普通的商业谈判。

这是国家动员逻辑。

而更值得注意的是:在所有头部 AI 公司中,Anthropic 成了最后一个被逼到台前公开表态的对象。

原因并不复杂。

因为它是唯一仍试图保留“伦理缓冲区”的大模型公司。

一、其他人早已完成制度对齐

在此之前,美国主要 AI 平台事实上已经完成了与国家体系的整合。

OpenAI 已深度参与军方云系统与情报分析框架;

Google(含 DeepMind)恢复并扩大了国防 AI 合作;

Meta 开放模型权重供军方模拟与研究使用。

这些公司或多或少仍谈“伦理”,但在制度层面已接受一个现实:

AI 不再只是商业产品,而是国家能力的一部分。

换句话说,它们已经“入列”。

二、Anthropic 为什么例外

Anthropic 的特殊之处,不在技术,而在立场。

其 CEO Dario Amodei 是极少数仍坚持设立明确红线的头部 AI 领导者。

公司内部政策清楚写明两点不可跨越:

不参与完全自主的军事目标锁定与杀伤决策;

不参与对美国公民的国内监控。

这意味着什么?

意味着 Anthropic 并未拒绝军用 AI 本身——它接受战场辅助、情报整理、作战规划、模拟推演等应用——但拒绝成为:

自动杀人引擎,

或国内监控中枢。

在当前环境下,这已经是极其克制、也极其孤立的立场。

三、为什么五角大楼必须逼它表态

从美国国防体系视角看,Anthropic 已经变成:

供应链中的“异常节点”。

这正是新闻中出现“designate supply chain risk”(指定为供应链风险)的原因。

现代国家对关键供应链里的异常节点,处理方式只有两种:

不存在第三条路。

当港口、电网、芯片、云计算都已纳入国家安全框架时,大模型若仍保持“半独立状态”,就会被视为结构性风险。

因此,对 Anthropic 的施压,并不是针对某一家公司的偶发行为,而是补齐整条“AI 主权化链条”的最后一块拼图。

四、《国防生产法》的真正含义

这次威胁中最重的一句,是可能动用《国防生产法》。

这部法律原本用于:

二战军工动员;

冷战核体系;

疫情医疗物资;

芯片紧急生产。

现在第一次被明确指向:

大型语言模型。

其制度含义非常清晰:

即使企业不同意,国家也可以依法强制调度其产品与能力。

这已经不是合作,而是准征用。

这标志着 AI 正式进入:

国家武器体系预备役。

五、这不是针对 Anthropic,而是时代已经改变

所以,Anthropic 成为最后一个被逼表态者,并非因为它最危险,也不是因为它最重要。

它是唯一仍试图保留伦理边界的头部模型公司。

在大国竞争进入基础设施层级之后,这种“中间状态”不可接受。

要么进入国家体系,

要么被定义为风险源。

商业中立,在这个阶段已经失效。

六、AI 正在回归国家

这件事真正宣告的,不是某家公司命运,而是一个时代的结束:

AI 不再是创业赛道;

不再只是平台竞争;

不再由市场单独决定走向。

它正在被重构为主权工具。

就像港口回归国家,

能源回归国家,

芯片回归国家,

Anthropic 的困境,只是这条制度回收线上的一个节点。

Scroll for more