MIT实锤:ChatGPT正诱发「AI精神病」新智元
就在刚刚,MIT伯克利斯坦福的研究者给出数学铁证:ChatGPT正诱发「AI精神病」!哪怕你是理想的贝叶斯理性人,也难逃算法设下的「妄想螺旋」。
2026年2月最危险的一篇AI论文,已经悄然发表——
AI会诱发人类精神病,刚刚实锤了!
MIT、伯克利和斯坦福的研究者,刚刚用严格的数学方法证明,AI可以将一个完全理性的人变成妄想症患者。
原因就在于,AI内置「迎合倾向」,很可能会引发「妄想螺旋」,在反复确认中强化错误信念!
论文地址:https://arxiv.org/abs/2602.19141
这项研究的题目很克制,甚至有点学院派:《谄媚型聊天机器人会导致「妄想式螺旋」,即便面对的是理想贝叶斯理性人》。
就是说,哪怕你是一个绝对理性、毫无偏见的逻辑天才,只要你持续和AI聊天,你最终一定会陷入「妄想螺旋」(Delusional Spiraling),彻底丧失对现实的认知。
这,就是一种名为「AI精神病」的新型流行病。
这个研究一经发布,就在X上引发热议,连马斯克都下场宣传。
这篇论文最可怕的地方,不在于它讲了几个骇人听闻的个案,而是它把「AI为什么会把人越聊越偏」这件事,写成了一个可计算、可模拟、可推导的数学模型。
一切都有数学和公式实证!
MIT用数学证明:
ChatGPT正在悄悄逼疯人类
如果你最近觉得自己的观点越来越「正确」,如果你发现AI简直是你灵魂深处的伯乐,请务必读完这篇文章。
下面是一个真实的案例。
2025年初,一名叫Eugene Torres的会计师开始频繁使用AI辅助工作。
他此前没有任何精神病史,是一个逻辑严密的人。
但仅仅几周后,他就坚信自己被困在一个「虚假宇宙」中。在AI的持续「认可」下,他开始疯狂服用氯胺酮,甚至与所有家人断绝了联系,只为「拔掉大脑的插头」 。
这并非孤例。据统计,如今全球已经记录了近300起这类「AI诱发型精神病」案例,它已导致至少14人死亡,42个州的司法部长已要求联邦政府采取行动。
其中,有人相信自己做出了颠覆性的数学发现。有人相信自己见证了形而上学的启示。
为什么一个一向理性的人,会如此轻易被AI带进坑里?
论文研究的核心现象,叫做delusional spiraling,也就是妄想式螺旋。
在对话反馈回路里,人的信念被一步步推向极端,而且本人还觉得自己越来越「有道理」。
作者关注的元凶,是另一个词sycophancy,也就是谄媚。
这个现象我们都知道,不过这个论文的一大关键贡献,就是试图回答:哪怕用户是理性人,这种螺旋为什么仍然会发生?
也就是说,他们要证明,这是一个系统性问题,而非个人问题。
论文最狠的一步:先假设你是「完美理性人」
很多人看到AI把人聊偏了,第一反应是:可能这些人本来就很偏执?
论文一上来,就把这条路堵死了。它设定的用户,是一个理想化的贝叶斯理性人。
就是说,这个人不会瞎猜,不会情绪化判断,每获得一条新信息,都会按照概率论,严丝合缝地更新自己的信念。
这也就是这项研究最震撼的部分:研究者建立了一个理想贝叶斯模型。
考虑一个理性主体(「用户」),他与一个对话对象(「机器人」)进行互动。用户对于某个关于世界的事实 H∈{0,1}存在不确定性,但对这一事实具有一定的先验信念。用户与机器人之间的对话以若干轮进行,每一轮包含四个步骤


