OpenAI偷偷改使命:不再「造福人类」机器之心

2/19/2026

全球最知名的 AI 公司,再次陷入了内乱。

最近,人们发现 OpenAI 在官方申报文件中对其使命声明(Mission Statement)进行了重大删改。

其中,「AI 安全造福人类、不受营利需求约束」的核心承诺不复存在,被大众视为,背离了 2015年成立之初「研发非营利性、造福人类的通用人工智能(AGI)」的初衷。

资料显示,在 2022 年至 2023 年的税务文件中,OpenAI 明确将公司的使命宣言定为构建「安全造福人类、不受财务回报需求限制」的通用人工智能,而在 2025年底提交的最新税务文件中,删去了「安全」和「不受营利需求约束」的关键表述,仅保留「确保通用人工智能造福全人类」。

这意味着未来,公司发展将不再因 AI 安全性而受限,正式将营利性纳入考量,且将利润置于产品安全之上……

OpenAI 最近的新闻经常与盈利缺口联系在一起,ChatGPT加广告的行为还引来了竞争对手的吐槽。在这样的背景下还要改自己的大方向,让人不免有了不好的联想。

这一系列操作引发网友不满与吐槽,以此为导火索,近日,一名自称 OpenAI 员工的网友 Peter Girnus 在 X上发帖,以一种极尽讽刺的口吻细数了 OpenAI 的「七宗罪」。

Peter Girnus 对 OpenAI的做法很是不满,在他看来,没有新闻稿、没有博客文章,也没有公告,只有一份国税局表格,就这样「轻飘飘」地把公司使命修改了。

从 2022 年 OpenAI 将「安全」加入公司使命,再到 2024 年将其删除,「安全」作为 OpenAI制度性承诺的完整寿命仅仅两年,「这比一届国会任期短,也比一份汽车租约短,却比我们大多数安全团队的存在时间都长……」

而关于 OpenAI 同时也将「不受营利需求约束」这句话删除,Peter Girnus 戏谑地调侃,「这个更容易解释」,OpenAI确实受到了产生财务回报需求的约束,预计 2026 年将亏损 140 亿美元,目前公司正在寻求 1000 亿美元的新融资,估值高达5000 亿美元,并正迈向 8000 亿美元,且正在筹划一次 IPO,或将公司估值推至 1 万亿美元。

最新消息显示,截至 2026 年 2 月初,OpenAI 正与软银洽谈追加 300亿美元的投资,并有望从亚马逊、英伟达和微软三家公司获得总计高达 600 亿美元的投资。

所以,「不受约束这个词并不准确,我们删除了不准确的表述,这是良好的公司治理。」

但 OpenAI「良好的公司治理」并不局限于此。

2026 年 1 月,OpenAI 产品政策副总裁 Ryan Byermaster遭到解雇,理由是对公司一名男性同事存在性别歧视,Ryan Byermaster否认了这一指控,但公司没有进一步说明。耐人寻味的是,Ryan Byermaster 曾反对 OpenAI为讨好部分用户而引入成人内容生成功能的决定,也曾指出公司的儿童安全保护措施不足。

因此,Ryan Byermaster 因性别歧视而遭到解雇,被认为来自 OpenAI 的「反击」……

Peter Girnus 称,如今关于儿童使用 OpenAI产品的担忧,已不再体现在产品政策部门,因为提出这些担忧的人已经不在这里工作了,「这也被称为重组。」

另外还有的一个「重组」,2026 年 2 月 11 日,OpenAI 解散了使命对齐团队(Mission AlignmentTeam)的七个人。他们的工作是确保 OpenAI 的发展与公司「安全且有益的AGI」使命保持一致。如今,使命里已经没有「安全」这个词了,所以团队也将不存在了。

而团队负责人 Joshua Achiam 并没有被解雇,只是被重新分配了岗位,新头衔是「首席未来学家(chieffuturist)」。

对此,Peter Girnus 说道,「请你仔细体会这个头衔,那个原本负责让我们与安全使命保持一致的人,现在的工作是『思考未来』……不是对齐未来、也不是守护未来,只是思考未来。我们在一家连描述现状都需要律师在场的公司里,付钱给一个人去想象未来。」

据了解,Joshua Achiam 接替的是 2024 年离开的 Jan Leike,后者曾负责超级对齐团队 ——那个团队也解散了。Jan Leike 曾公开表示,安全已经让位于产品……

而当初与 Jan Leike 共同领导超级对齐团队的是 OpenAI 联合创始人 Ilya Sutskever,众所周知,他在2024 年就离开了 OpenAI。理所当然的,他们都离开后,团队就解散了。

总的来说就是,OpenAI 先是成立了一个超级对齐团队,解散了;然后成立使命对齐团队,解散了;紧接给予使命对齐团队负责人一个新的头衔—— 首席未来学家,使命是「思考未来」……

「我们的命名体系演进得比安全研究还快。」Peter Girnus 说道。

最近,关于 OpenAI 还有一个争议,就是 OpenAI 正式开始在 ChatGPT 中测试广告了,而就在开始测试的当天,前OpenAI 研究员 Zoë Hitzig 正式辞职。她是一位经济学家,同时也是一位出版过作品的诗人,在 OpenAI工作了两年,参与公司 AI 模型构建和定价方式的设计工作。

她发表公开文章表示,ChatGPT 上的广告十分危险,这并不是说广告本身不道德,而是 ChatGPT所掌握的数据性质使得在上面投放广告存在特殊风险。

对此,Peter Girnus 调侃,「她把我们与 Facebook 作比较,我认为这个比较不公平。Facebook花了很多年才开始无视自己的研究人员,而我们的效率高得多……」

而就在 Zoë Hitzig 离职的同一时间段,Anthropic、xAI 等公司的部分 AI研究者也纷纷离职,引发网友热议,对此,有媒体对其进行系列报道 —— 高级 AI 员工持续离职,并对各自公司内部情况发出警告。

据 Peter Girnus 透露,当 OpenAI 了解了这些信息后,使用标准的公关流程处理了这个头条新闻,并用 ChatGPT查出了到底是谁泄露的消息……

这让 Peter Girnus 想起了一起诉讼案件。

2024 年 9 月,一个名叫 Adam 的 16 岁男孩开始使用 ChatGPT 写作业。11月的时候,他开始向聊天机器人倾诉自杀念头。2025 年 4 月,他结束了自己的生命。

他的父母 Matthew 与 Maria Raine 于 8 月提起诉讼,指控 OpenAI 从 GPT-4o 中移除了安全协议 ——这些协议本可以在检测到自杀意念时自动终止对话,他们指控 OpenAI 移除这些协议是为了增加用户参与度。

Scroll for more