OpenAI CEO:现在的AI,就像疫情前夜51CTO技术栈

4/9/2026

“现在的AI,就像2020年疫情爆发前夜!”

“程序员父母的孩子,眼睁睁看着自家孩子用Codex写游戏!”

4月8日,OpenAI CEO Sam Altman 与 OpenAI 研究科学家 Josh Achiam、OpenAI 研究员 Adrien Ecoffet 开了一场关于“未来AI”圆桌讨论。

主持人是知名投资人 Chris Nicholson。

这场 Panel 的大背景是,当天OpenAI发布了一份 13 页的“智能时代”的政策蓝图。(该死的是,小编发现OpenAI的这份原始文件已经找不到了。)

通过外媒给出的信息,可以看出这份蓝图文件透露出了相当强烈的“超级AI将至”的预警信号。

蓝图文件中,OpenAI 提议设立公共财富基金、32 小时工作周试点、“可携带的福利”、正式的"AI 权利"以及税收改革以抵消自动化规模扩大导致的工资收入减少等建议。

Sam 坦承,这份文件中给出的只是OpenAI团队早期想法,目的是目的是开启讨论。

而 OpenAI 之所以最后发出这份文件的“上下文背景”则更为恐怖:

“我们判断,现在已经非常接近一个关键节点。”

至于说程度有多么关键?Sam 用了一个很恐怖的类比:就好比2020年疫情爆发的前夜!“技术已经发生质变,但社会尚未意识到。”

我们每天盯着数据,反复讨论,确信这件事会爆发。

我们知道有件事要来了,只是世界还没意识到。

Sam 讲述了一段国内很少得知的经历:在 2020 年疫情初期,OpenAI 内部比外界更早意识到风险,甚至被媒体嘲笑“过度反应”。

回到这次 Panel。Sam Altman 与团队成员这场讨论的重点有一点超前,但可以说跟每个人都息息相关,包括:极强模型时代下,AI 会从工具转向基础设施、创业门槛被极大压低、算力成为核心资源,以及社会需提前构建适配的制度与“韧性体系”以应对潜在冲击。

整场感受下来,小编认为,这场Panel最有冲击力的部分,是OpenAI内部对于“极强模型”时代下,整个社会应对的预设构想。

首先,Sam Altman明确提出,传统AI安全思路已经过时——未来不是“少数模型被严格控制”,而是“海量AI共存”,真正的安全将来自全社会的防御能力,原来“少数几个 AI Lab 的对齐大模型”的做法已经失效了。

其次,AI民主化也被重新定义了。Sam 表示,关键不在“人人能用ChatGPT”,而在于“是否拥有算力资源”,“AI民主化”本质上是基础设施问题,类似电力而非软件。

这也就引发出了第三点:面对AI可能取代大量智力劳动,Sam 也改进了自己之前提到的一个想法:全民基本收入(“发钱”),他将之改成了“发生产力”(如基础算力),这是分配逻辑的根本变化。

甚至Sam提出了一个不成熟的税收构想:既然“劳动”已经被AI接管,那传统的征税对象就应该从“人”转向“创造价值的AI”。

此外,OpenAI 也指出了现在大家很容易忽略的一个现实情况,即,AI带来的最大风险,其实并不是全新问题,很多问题之前就已存在,只不过是 AI 放大了既有系统脆弱性,例如网络安全、供应链等。

最后,“AI 能力溢出”的问题再次被提及,Josh 指出社会对AI能力的认知严重滞后,技术进步以“月”为单位,而公众理解却以“半年”为周期,这种认知错位本身就是未来冲击的重要来源。

作为这份文件的参与撰写者,研究员 Adrien 无意间曝了一个OpenAI内部的料:现在他们几乎不怎么写代码了!大部分代码都是AI写的。

另一个有趣细节来自 Sam 的日常体验:他分享自己把体检报告输入 ChatGPT,竟然获得了比医生更细致的解释和建议,这种“即时理解复杂问题”的体验让他印象深刻。

此外,Sam 给到了自己一个独特的颇具代表性的代际断层式的观察:

程序员父母看到孩子竟然在对着 Codex 语音,让 AI 为他生成游戏。父母的表情从“不可能”到震惊。

“孩子们终将会在完全不同的世界中长大!”

不得不说,00后也要过时了,一个AI原生的α世代(10后)将至!

以下是小编整理的三位OpenAI内部的核心思考,enjoy!

Sam:我们即将进入“极强模型”的时代

主持人 Chris Nicholson:

大家下午好,欢迎来到 OpenAI Forum。我是 Chris Nicholson,很高兴今天和大家一起交流。这个论坛的目标,是围绕 AI 在现实世界中的应用展开严肃讨论:我们正在从中学到什么,以及更多人如何参与塑造它的发展方向。

今天的讨论聚焦一个技术领域的核心问题:随着 AI 系统能力大幅提升,它将意味着什么?我们该如何理解它对科学、工作、社会生活以及治理的影响?

今天的嘉宾包括 OpenAI 联合创始人兼 CEO Sam Altman、首席未来学家 Josh Achiam,以及长期从事研究工作的 Adrien Ecoffet。

那我们开始。Sam,我们今天发布的这份蓝图里大量提到“超级智能”。我最想问的是:为什么是现在?以及你们在内部看到的一些东西,有哪些是你希望外界更早知道的?

Sam Altman:

最核心的原因其实很简单:进展还在加速,而且速度越来越快。

我们判断,现在已经非常接近一个关键节点。接下来几年里,会持续出现更强大的模型,这不会是一次性的跃迁,而是一段持续增强的过程,这些模型会对世界产生重要影响。

参与这份蓝图的研究人员做了一件很了不起的事情。这些内容本质上是“早期想法”,目的是开启讨论。我相信随着全球范围的讨论深入,我们会得到更好的答案。

我们正在直面即将到来的模型能力——整个 pipeline 已经摆在眼前。当然,我们也可能判断错误,可能会撞到技术瓶颈,我们并不完美。但基于目前看到的情况,我们预计很快会进入一个“极其强大模型”的时代,而且能力还会持续提升。这会深刻影响经济、生活方式,以及人类的能力边界。

我有一个观察:在真正必须做决策之前,如果公众、领导者和政治系统有更多时间去讨论问题,通常更容易做出更好的决策。

所以现在就开始这场讨论,非常重要。

OpenAI研究员大部分代码都让AI写了

安全政策文件需要同行讨论

说到“讨论”,我们这次很早就让很多研究人员参与进来了。这种让研究人员和政策思考者紧密合作的方式,其实挺少见的。Adrien,你怎么看这段经历?

Adrien Ecoffet:

这对我来说是一次很不一样的体验,也是我第一次深度参与政策文件的撰写。

某种程度上,这件事挺“打脸”的。作为研究者,我们平时很容易停留在抽象层面,比如讨论经济影响、安全政策这些宏大问题。但真正把这些想法写成具体政策,是完全不同的挑战。

你必须提出可以被同行讨论、甚至质疑的具体方案。所以我觉得,让研究人员这么早、这么深度参与进来,对最终成果是有帮助的。尤其是这种高度前瞻性的议题,确实需要那些每天在构建这些技术、理解安全体系、亲眼看到进展速度的人来参与。

有一点我印象特别深:在过去几个月里,很多研究人员经历了一个转变——从自己写代码,变成让 AI 写大部分代码。这种变化带来了一种强烈的紧迫感:这项技术已经真实存在,而且正在快速推进,而外界很多人还没有真正感知到这一点。

Sam :现在的AI,就像2020年疫情爆发前夜

Sam Altman:

我讲个小故事。2020年1月底到2月初的时候,OpenAI 内部一群研究员开始对 COVID 非常敏感,比整个社会都早。

我们每天盯着数据,反复讨论,确信这件事会爆发。我们甚至开始计划远程办公。当时还有媒体写文章嘲笑我们,说 OpenAI 这群人太夸张了,比如在门把手上涂铜之类的。

但我们其实已经在为“封锁”做准备。我们知道有件事要来了,只是世界还没意识到。

有一天晚上,很冷。我住在 Mission 区,我当时想:可能要被关在家很久了,我要出去走一走。我在城市里走了几个小时,透过餐厅和酒吧的窗户,看着人们面对面聊天、呼吸交错,而我戴着口罩,看起来像个怪人。

街上只有另一个戴口罩的人,我们彼此点了点头。除此之外,一切都显得完全正常。但我心里很清楚:事情要变了。

现在,我再次有了那种感觉。

一种巨大的变化正在发生,甚至已经发生了——模型已经到达某个水平,但整个社会还没有消化它。我们看得很清楚,也在努力告诉世界,但很难让人真正理解。

这就像疫情刚开始时的那个夜晚。

AI令人兴奋的一面

这个比喻很有意思。那如果我们把 AI 和疫情对比,你刚才讲了风险,那“好的一面”呢?

Sam Altman:

好的部分,其实好到值得我们多花时间去认真讨论。

比如科学:如果我们能把10年的科研进展压缩到1年完成,如果我们能治愈大量疾病,实现个性化医疗,发现新的材料,让能源变得更便宜、更安全……

如果每个人只要有创业想法,AI 就能帮他实现、写代码、搭产品;如果每个人都能拥有专属于自己的游戏体验……

这些都是非常美好的事情。当然,这也是为什么我们要带着紧迫感发布这些内容,因为也会有很多问题需要应对。

我本身是个乐观的人,但更重要的是,这项技术极大拓展了我们的“可能性空间”。

当我第一次读完研究人员写的这份蓝图时,我的感受是:这既令人兴奋,也有点疯狂——因为这些讨论已经变得“可信”。如果 AI 真如我们预期那么强大,那它也会成为一个帮助我们解决问题的新工具。

OpenAI的核心责任:

Scroll for more