谷歌把AI安全开关“授权”给了五角大楼华尔街日报

4/27/2026

谷歌与美国国防部签署了一项允许五角大楼将谷歌AI用于机密工作的协议,在内部员工强烈反对声中完成交割。该协议的安全限制条款措辞模糊,被法律专家指出不具备法律约束力,引发外界对AI军事应用边界的深切担忧。

据The Information报道,知情人士透露称,该协议允许五角大楼将谷歌AI用于"任何合法的政府目的",这一表述与此前其他AI公司与国防部谈判中引发争议的措辞如出一辙。协议同时要求谷歌根据政府要求协助调整其AI安全设置与过滤器,条款宽松程度被认为超过OpenAI今年2月与五角大楼达成的协议。

就在协议签署前夕,逾600名谷歌员工联名致信CEO Sundar Pichai,要求其拒绝该协议,认为拒绝承接机密工作是确保谷歌AI不被滥用的唯一途径。此次签约标志着谷歌在军事AI合作立场上的重大转向,也令市场重新审视科技巨头与国防部门深度绑定所带来的商业与声誉风险。

员工反对未能阻止协议落地

协议签署前,谷歌内部已出现明显阻力。超过600名员工在本周一联名致信Pichai,要求公司拒绝该协议,并主张只有彻底回避机密工作,才能从根本上防止谷歌AI遭到滥用。

这一幕令人联想到八年前的历史。2018年,谷歌在数千名员工签署反对信后,最终退出了国防部涉及无人机目标识别的"Maven项目"。此次谷歌选择逆员工意愿而行,完成签约,显示出公司在国防业务上的战略取向已发生根本性转变。

谷歌公共部门发言人在声明中表示,新协议是对去年11月已签署的非机密用途合同的修订补充。"我们为能够成为支持国家安全的领先AI实验室及科技云企业广泛联盟的一部分而感到自豪,"该发言人表示,"我们仍然致力于公私部门的共识——AI不应被用于国内大规模监控或缺乏适当人类监督的自主武器。"

条款宽松程度超越OpenAI协议

谷歌此次协议在条款设计上与竞争对手存在明显差异。OpenAI今年2月与五角大楼达成的协议同样允许"所有合法目的"的使用,但OpenAI在公告博客中明确声明保留对其"安全体系的完全自主权",并列明禁止将AI用于大规模监控、自主致命武器系统指挥或"社会信用"类高风险自动化决策。

谷歌协议则要求公司根据政府要求协助调整AI安全过滤器。谷歌公共部门发言人对此解释称,相关过滤器原本面向消费者场景设计,谷歌通常会针对企业客户进行定制调整。

目前,谷歌已与马斯克旗下xAI及OpenAI一道,成为与五角大楼签署机密AI使用协议的科技公司。

安全条款被指不具法律约束力

协议中涉及AI使用限制的核心条款措辞引发法律界质疑。据知情人士透露,协议包含如下表述:"双方同意,AI系统无意用于、且不应被用于国内大规模监控或自主武器(包括目标选择),除非有适当的人类监督与控制。"

然而,协议随即补充:"本协议不赋予任何一方控制或否决政府合法运营决策的权利。"

独立智库法律与AI研究所高级研究员、律师Charlie Bullock指出,"无意用于、且不应被用于"这一措辞意味着相关条款"在法律上不具任何约束力"。他表示,这种表述仅代表双方认为此类用途不可取,而非将其认定为违约行为。

纽约大学布伦南司法中心研究AI与国家安全的高级顾问Amos Toh则指出,"适当的人类监督与控制"这一表述,并不必然意味着在目标识别与武器发射之间必须有人类介入。他表示,五角大楼迄今未排除部署全自主武器系统的可能性。"对武力使用实施适当人类判断的要求,仅仅意味着在武器系统的总体部署方式上存在某种形式的人类参与和决策,"Toh说。

Anthropic前车之鉴悬于行业头顶

此次谷歌协议的签署,发生在行业对AI军事应用边界争议持续发酵的背景之下。今年2月,Anthropic与五角大楼的谈判公开破裂,导火索正是Anthropic拒绝接受"任何合法用途"条款,并坚持保留针对大规模监控与自主武器两条明确红线。

谈判破裂后,五角大楼将Anthropic列为供应链风险,Anthropic目前正就此在法庭上提出抗争。彼时,逾900名谷歌员工与逾100名OpenAI员工曾联署公开承诺,要求各自雇主与Anthropic的两条红线保持一致立场。

如今,谷歌选择签约,意味着这一行业内部的道德共识正在加速瓦解,而安全条款的法律效力存疑,则令外界对AI在高风险军事场景中的实际约束机制更加忧虑。

Scroll for more