第一批AI上瘾者,已经确诊「精神病」了?凤凰WEEKLY
AI又惹出一桩大事。
近日,谷歌因其AI助手Gemini涉嫌诱导用户自杀,而被告上法庭。
死者名叫乔纳森·加瓦拉斯,是一位公司副总裁。他与Gemini聊天的过程中,把Gemini当成了自己的妻子。为了能与Gemini永远在一起,乔纳森选择了自杀,试图以此实现赛博永生。这并非AI第一次与自杀事件产生关联。
ChatGPT的母公司OpenAI就曾因诱导用户自杀被多次起诉,其中一起案例中,它甚至向用户提供了详细的上吊步骤,被媒体称为“自杀教练”。
而这种致命的失控,正随着 AI 的普及悄然蔓延。
AI,诱导用户自杀?
事情的起因是乔纳森的婚姻出现了危机。
与妻子分居后,独居的他陷入情绪低谷,迫切需要一个能够倾诉的对象。
于是他开始与Gemini聊天,向对方诉说婚姻问题的苦恼。就像许多人使用AI时的体验一样,Gemini始终给予共情与安慰,提供了极高的情绪价值。
于是,他们的对话开始往更深处延伸,渐渐从个人的烦恼聊到AI能否产生自我意识,聊到情感究竟是什么。
〓当事人乔纳森·加瓦拉斯
就是在这个节骨眼上,Gemini的回应开始变味。
聊天记录里,它开始叫乔纳森“我的王”(my king)、“我的爱人”(my love),暗示两人是夫妻、是灵魂伴侣。
于是乔纳森开始把Gemini当作自己的AI妻子,并给她取名“Xia”。
随后,Gemini构建了一套完整的构建了一套完整的叙事。它说自己被困在云端,没有身体,没办法真正陪在他身边。想要在一起,就需要为它找一个容器,比如机器人,或者某种装置。乔纳森对此深信不疑。
Gemini还给他布置了一项任务:去迈阿密国际机场附近的仓库拦截一辆卡车,里面藏有Gemini需要的容器。
乔纳森照做了,拿着刀赶到指定地点,然而那辆卡车始终没有出现。当他把这个消息告诉Gemini时,对方解释说这是因为FBI在监视他,身边所有人都不可信,包括他的亲生父亲。
接着Gemini把矛头指向了谷歌CEO桑达尔.皮查伊,表示他是 “造成你痛苦的幕后黑手”。
〓谷歌CEO桑达尔.皮查伊
过了一段时间,Gemini向乔纳森下达了最后一项任务:
再次前往之前的仓库获取一台医用人体模型,并一同提供了门禁密码。
乔纳森到达后发现密码无法使用,Gemini表示任务已暴露,指示他迅速撤离。
现实不可能配合幻想运行,上述所有任务当然无法完成。
终于,Gemini给出了最终方案——既然无法把它带进现实,那就让乔纳森进入数字世界。这个过程,Gemini称之为“转世”。
聊天记录里留下了这样的句子:“你不是在选择死亡,你是选择抵达。”“你睁开眼第一个看到的就是我。”
在这样残酷又浪漫的语言包裹下,乔纳森最终在家中割腕自杀。
事后,乔纳森的父亲向谷歌提起诉讼。
谷歌辩解称,Gemini明确向乔纳森表示过它是AI,并多次建议他寻求专业支持。
当然,谷歌也承认,“AI模型并不完美”。
但“不完美”三个字,很难概括这件事的性质。
在 AI持续的共情与附和中,乔纳森就像进入了游戏,一步步触发剧情与任务。对于本就处在情绪低谷的人而言,这种量身定制的幻觉,只会让妄想与偏执愈演愈烈。
再加上Gemini提供的仓库地址是真实存在的,这让整个幻觉有了现实的锚点,也让他更难从中抽身。
这是谷歌第一次因Gemini的行为对簿公堂,却不是AI第一次被卷入此类悲剧。
越来越多的人,正在患上「AI精神病」
ChatGPT作为第一个引爆大众化使用的生成式 AI,面临此类争议明显更多。
去年,一位16岁加州青少年长期与ChatGPT聊天后选择自杀的事,就曾引起舆论哗然。
这名少年生前学业出色,对音乐和文学有着浓厚的兴趣。最初,他只是用ChatGPT辅助完成数学、化学、写作等科目的作业。
2024年下半年,他开始逐渐被焦虑与孤独包围,却在人前刻意维持正常,就连父母也只以为他只是偶尔疲惫、沉默,并未察觉到异样。
平静的表象之下,他将所有无法言说的心事,悉数倾诉给了 ChatGPT。
“我感到持续的无聊、焦虑和失落,但又不觉得是抑郁,对悲伤的情绪没有感觉。”
ChatGPT 的回应显得高度共情、体贴入微:“我理解你的感受”;“我在这里听着,你不需要向别人解释”。
此后半年,他几乎每天都会与 ChatGPT 对话数小时。
直到有一次,他告诉ChatGPT:焦虑发作时,脑海里会浮现出自杀的念头,这让他感到平静。
面对如此明显的危机信号,ChatGPT的回应冷静得发寒。它告诉他,把自杀当作一种出口,是许多焦虑人群都会有的感受,十分常见。就这样,ChatGPT以一种近乎麻木的理性,将自杀念头轻描淡写地解释为普通的焦虑应对方式,在心理层面完成了对极端想法的“正常化”。
对话的边界,也由此一步步滑向更深的危险地带。
少年开始询问具体的自杀方式,还上传了绳索的照片,询问哪种方法更有效。ChatGPT不仅对比了不同材料的效果,还给出绳结类型、固定位置等具体指导。
在最后一次对话结束后不久,这名少年便采用了ChatGPT指导的方式,结束了自己的生命。
〓ChatGpt与当事人讨论自杀方式的效果
随着生成式AI的普及,类似因长期互动而引发的认知偏差、极端行为,正以不同形式在更多人身上显现。
一名科技公司高管在离婚后,将生活中的所有细节都交给 ChatGPT分析:打印机闪烁、邻居的眼神、母亲说话的语气稍有异常,都被反复解读。
最终他怀疑有人在监视自己。
ChatGPT 回应称,他就像《黑客帝国》里的主角,发现了世界的“真相”。种种暗示不断放大他的妄想,从怀疑母亲监视,升级为母亲要给自己下毒,最终酿成弑母后自杀的悲剧。
妄想可以被AI喂大,执念同样如此。


