AI奇点已死?Hyman的杂货铺

4/10/2026

一句话讲清楚👉🏻

Google Paradigms of Intelligence 团队最新论文提出:AI 奇点不是一台超级大脑的崛起,而是一个复杂社会的涌现 —— 推理模型内部已经在自发产生 “思想社会”,未来的智能爆炸将是人机混合体在制度框架下的协同进化。

AI 奇点:一个可能是方向性错误的预言

“AI 奇点” 这个概念,科技界讨论了三十多年。

最早是数学家 Vernor Vinge 在 1993 年提出来的,后来 Ray Kurzweil 在《奇点临近》里把它推向大众。核心叙事很直白:某天 AI 拥有了自我改进能力,然后指数级加速,最终变成一个凌驾于全人类之上的超级智能。

这个想象几乎定义了整个 AI 安全领域。Eliezer Yudkowsky 的 “FOOM” 假说讲的是一个 AI 突然起飞;Nick Bostrom 的《超级智能》最担心的是 “独体”(singleton)—— 一个谁也控制不了的单一智能体。对齐研究的所有问题,归根结底都是一个:怎么管住这一个超级大脑?

2026 年 3 月,Google 的一篇论文对这个根基性假设开了一枪。

James Evans、Benjamin Bratton 和 Blaise Agüera y Arcas 在 arXiv 上发了《Agentic AI and the next intelligence explosion》(arXiv:2603.20639)。4 页纸,论点很硬:

智能从来不是个体的事。

智能的本质是社会性。

思想社会:推理模型内部发生了什么?

从思想社会到组织科学:一个还没被打开的设计空间

人机半人马:混合智能正在发生

推理模型内部出现了 “思想社会”,那在模型和人类的交互层面呢?

从 RLHF 到制度对齐:一个根本性的范式转换

劳工部门的 AI 可以审计企业的招聘算法有没有歧视性影响;司法部门的 AI 可以评估行政部门 AI 的风险评估是否符合宪法标准。不然的话,美国证券交易委员会就只能雇拿着 Excel 表格的商学院毕业生,去对抗 AI 增强交易平台的高维串谋。

核心逻辑是:在人工 Agent 的世界里,没有任何单一智能集中点应该自我监管。权力必须制衡权力。美国开国元勋们早就懂这个道理,在人工 Agent 的世界里,需要以新的形式实现。

治理不只是政府的事

进化视角:重新理解 “智能爆炸” 的历史

论文最深的贡献,是把 AI 的未来放进一个更大的进化框架里。

传统 “奇点” 叙事把即将到来的 AI 突破当成一个独特的、史无前例的事件。但论文指出,生命史上已经发生过好几次 “智能爆炸”,每次都不是个体认知能力的升级,而是新社会聚合单元的涌现。

对 “独体奇点” 框架的政策反思

论文最后指出了 “独体奇点” 框架在政策上的危险。

这个框架让政策盯着一个可能永远不会出现的技术 —— 一个无法控制的单一超级智能。盯错了地方。

论文主张,我们应该在以前几次智能爆炸涌现的地方找下一次:在多元社会智能心智之间的合作、竞争和创造性的互动中。区别是这次大多数心智将是非生物的。

“多元模型” 把注意力放到该放的地方:混合人机社会系统的设计、治理规范、冲突和协调的制度与协议。

论文最后一段写得很好:

“智能爆炸已经在这里 —— 在每个推理模型内部辩论的思想社会中,在重塑每个知识职业的半人马工作流中,在开始大规模分叉和协作的递归 Agent 生态中,以及在我们现在必须开始提出的宪制问题中。问题不在于智能是否会变得更强大,而在于我们是否会建设出配得上它所正在成为的样子的社会基础设施。没有心智是一座孤岛。”

Scroll for more