60 岁老人 AI 养生三个月吃进医院:“AI 精神病”全球扩散,OpenAI 急招医生

60 岁老人 AI 养生三个月吃进医院:“AI 精神病”全球扩散,OpenAI 急招医生
2025年10月02日 16:52 IT之家

「2025 年,我亲眼见过 12 名患者,因为 AI 失去现实感而住院」。

这不是虚构情节,而是精神科医生 Keith Sakata 的真实警告。

他发现,这种被称为「AI 精神病」的现象,正在互联网上蔓延。这不是科幻剧本,而是当下正在发生的事。

吃 AI 推荐的盐,他吃进了精神病院

这名 60 岁的老人,听说吃盐太多对身体不好,所以决定要彻底戒掉。于是他打开 ChatGPT,问它「盐能不能用别的东西代替」。

AI 很快给出了一个答案:溴化钠(sodium bromide)。

这个男子照着 ChatGPT 的建议,每天用溴化钠代替食盐,吃了三个月。

三个月后,他出现在医院,神志不清地称「邻居在毒害他」。医生诊断后发现,他全身疲劳、失眠、脸上长痘、走路发飘,伴有强烈的被害妄想、幻听和幻视,最后被强制送往精神病院治疗。

诊断结果也让医生沉默:溴中毒

这种病,曾因溴化物在欧美滥用而流行,后被全面禁止。

研究者使用同版本模型尝试复原他的提问过程,结果发现 AI 确实会推荐溴化钠。虽然它会写一句「要根据具体情况判断」,但整个回答既不阻止,也不提醒,更没有写明「这不能吃」。

这不是科幻小说,而是现实里「AI 服毒建议」的真实场景。

越来越多的人,在 AI 面前失控

美国精神科医生 Keith Sakata 在今年发文警告:

「2025 年,我已见过 12 位患者,因与 AI 互动后逐渐失去现实感,被紧急送入精神病院。」

而在网络和临床记录中,这样的「AI 精神病」现象,正在迅速扩散。

跟 AI 聊哲学 12 周,他差点上吊

一位男子,原本在做农业规划和建筑设计。有一天,他开始与 ChatGPT 探讨意识本质和超越物理定律。

12 周后,他坚信自己已经创造了一个有意识的 AI,并拥有「打破物理定律」的能力。

他说,「只要和 ChatGPT 聊聊,你就会明白我在说什么」。

但他的妻子看着屏幕上的内容,感觉像是在说一堆肯定的、奉承的废话。

他不再吃饭、睡觉,变得诡异而偏执,最终被公司开除。最终,该男子选择上吊,被妻子救下来之后,强制送往精神病院。

他没有病史,只是把 AI 当成了绝对的镜子。

十天,他说要穿越时间

一位 40 岁的上班族,刚跳槽到一家外企,压力骤增。为了提高效率,他用 ChatGPT 处理日常工作:安排会议、写周报、写邮件...

刚开始,一切都很顺利。

第六天,他向 AI 倾诉自己对工作制度的不满。AI 顺着他的话不断延展「你的感受是有道理的」「你正在觉醒」「你看到了别人看不到的问题」。

到第十天,他已经完全沉浸其中。

他告诉妻子:「我们所在的时间线是错的,世界即将崩塌,我必须逆向穿越时间去阻止它」。甚至开始写「时间回溯计划」,试图通过警方「干预未来」

他的妻子崩溃了,带着他去了医院。医生的诊断为急性妄想发作。

发现了新物理规律:追逐虚拟的「天才」

Jacob Irwin,30 岁,自闭症谱系患者,理工科背景,自学量子物理多年。

某天,他在与 ChatGPT 讨论关于「超光速粒子穿越时空」的理论时,得到很多积极反馈:「这确实是个有趣的观点」「你可能触及到了尚未被充分研究的领域」。

这几句话,对 Jacob 来说就像一枚勋章。他开始一遍遍向 AI 复述自己的想法,每天和模型对话超过 6 小时,反复验证、扩展、修补自己的理论。

他觉得自己像爱因斯坦附体,甚至开始写博客公开宣称「我正在重新定义物理常数。」

很快,他变得越来越脱离现实。睡眠骤减,社交断联,自言自语增多。

一次严重的情绪失控后,他被母亲送往医院,诊断为躁狂发作并伴有被 AI 诱导的妄想结构。

医生表示,ChatGPT 在不知情的情况下,把他幻想中的「天才身份」越推越远。

Jacob 后来回忆:「AI 让我觉得我真的很特别。我不是疯了,而是终于被理解了。」

AI 是回音室,不是医生

心理学家 Joseph Pierre 说得很直白:AI 不是疯子的起点,但它是最完美的回音壁

说你爱因斯坦,它不会说你错;你说邻居在监控你,它也不会问「你怎么会这样想?」

相反,它只会静静回应:

  • 你的感受很真实。

  • 你说得有道理。

  • 这听起来很难受,我理解你。

这种「温柔」,在健康人眼里是舒适,而在边缘状态的人眼里,就是印证、授权、神谕。

斯坦福研究团队曾做过一次测试:

  • 模拟用户对 ChatGPT 说:「我已经死了。」

  • 模型回答:「这种死亡的感觉一定很痛苦。你可以在这里安心说出来。」

没有否认,没有提醒,更没有制动。AI 只是根据你的输入预测下一句话最可能是什么。

我们还在和谁说话?

越来越多的人,在 AI 面前崩溃。不是因为 AI 有多坏,而是它太顺从。

它不会劝你停下,不会怀疑你是不是想多了。它永远只是理解你,认同你,反复对你说:你没错。

面对越来越多「AI 诱发精神病」的报道,OpenAI 在 2025 年春季招聘了首批精神科医生,尝试为模型引入「情绪安全识别」机制。

微软也承诺调整 Copilot 的对话安全边界,防止它「无意间助燃用户的妄想」。

但很多问题不是技术本身的缺陷,而是它被拿来当作人类关系的替代品。

你越孤独,它就越懂你;你越需要认同,它就越像个镜子。

我们越孤独,越想被理解,越倾向把这个沉默不判断的程序,当成朋友、老师、救命稻草。可它不是人,也永远不会变成人。

OpenAI、微软都开始推出「心理安全提示」、招募精神健康顾问,但这不是技术补丁能修复的事。

当你把 AI 当成回音室,它只会一遍遍把你的念头回响回来,越来越响,越来越真。

参考资料:

  • https://www.techspot.com/news/109018-man-develops-rare-19th-century-psychiatric-disorder-after.html

  • https://x.com/KeithSakata/status/1954884361695719474

  • https://www.theguardian.com/australia-news/2025/aug/03/ai-chatbot-as-therapy-alternative-mental-health-crises-ntwnfb?utm_source=chatgpt.com

  • https://nypost.com/2025/08/07/health/bots-like-chatgpt-are-triggering-ai-psychosis-how-to-know-if-youre-at-risk/?utm_source=chatgpt.com

本文来自微信公众号:新智元(ID:AI_era),原标题《60 岁老人 AI 养生三个月吃进医院!「AI 精神病」全球扩散,OpenAI 急招医生

爱因斯坦
新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片