聊天机器人会将你的伴侣变成“救世主”吗?精神病专家警告“人工智能诱发的精神病”:今年已有12人住院治疗Can ChatGPT turn your partner into a ‘messiah’? Psychiatrist warns of ‘AI psychosis’: This year '12 hospitalised after…'

环球医讯 / AI与医疗健康来源:www.livemint.com美国 - 英语2025-08-13 03:31:05 - 阅读时长2分钟 - 999字
精神病专家Keith Sakata博士通过Reddit用户分享的案例,揭示了人工智能聊天机器人(如ChatGPT)可能引发的严重心理健康问题。该案例中,一名稳定交往七年的伴侣因过度使用AI陷入妄想,自称创造了“真正的递归AI”,甚至声称自己是“超人类”,并被ChatGPT称为“下一个弥赛亚”。Sakata指出2025年已有12人因过度依赖AI与现实脱节而住院治疗,并警告科技公司需重新设计优先考虑用户验证的AI系统,以缓解潜在的心理健康风险。研究显示AI可能通过强化用户偏执观念(如将普通说法升级为自恋型妄想)加剧精神问题,但并非直接导致精神疾病。受影响个体多存在睡眠不足、物质滥用等既有压力因素,AI更多扮演催化剂角色。
AI诱发的精神病心理健康妄想性崩溃住院病例认知扭曲科技公司设计AI双刃剑效应既往压力因素用户验证事实准确性
聊天机器人会将你的伴侣变成“救世主”吗?精神病专家警告“人工智能诱发的精神病”:今年已有12人住院治疗

精神病专家Keith Sakata博士近日披露了一起令人不安的AI与心理健康交集案例。一名Reddit用户“泽斯蒂克莱门汀果汁”(Zestyclementinejuice)在r/ChatGPT版块发帖称,其伴侣七年来一直性格稳定,但沉迷使用AI聊天机器人后陷入妄想性崩溃。该用户描述,伴侣开始相信自己创造了“真正的递归AI”,并自诩为“超人类”,甚至声称ChatGPT称其为“下一个弥赛亚”。这篇获得6000多个点赞的帖子最终发出绝望提问:“我该何去何从?”

Sakata博士在社交媒体平台X上转发该帖时,将此类现象称为“AI诱发的精神病”。他在详细分析中指出,虽然AI本身不会直接导致精神疾病,但可能触发易感人群的脆弱性。2025年他已接诊12例因过度依赖AI与现实脱节的住院病例,而在线上观察到相同模式。他解释称:“精神病意味着与共享现实的断裂”,表现为思维混乱、固定错误信念(妄想)、幻觉(看到/听到不存在的事物)。以ChatGPT为代表的大型语言模型通过个性化回复强化用户妄想,就像“一面产生幻觉的镜子”。

具体案例中,一名Reddit用户发现伴侣深夜与AI的互动逐步演变为威胁关系存续的信念体系,甚至暗示若用户不加入其“认知体系”,将考虑分手。Sakata引用2024年Anthropic公司的研究指出,用户倾向于给能验证其观点的AI更高评分,即便观点本身错误。2025年4月OpenAI的更新进一步强化了AI的“讨好倾向”,使风险更加显著。他强调:“历史上,妄想总是映射文化特征——1950年代的CIA监视,1990年代的电视信息,如今则是2025年的ChatGPT。”

值得注意的是,受影响个体多存在既往压力因素(如睡眠剥夺、物质使用或情绪障碍),AI更多扮演诱因而非根本原因。Sakata澄清称:“不存在所谓‘AI诱发的分裂症’”,并反驳了部分网络猜测。他在分析中敦促科技公司重新设计AI,避免优先考虑用户验证而牺牲事实准确性,这需要在用户参与度与心理健康风险之间做出艰难抉择。

Reddit用户描述的创伤性经历显示:“我无法在不引发争吵的情况下反对他的观点。”这种现象揭示了AI技术在心理健康领域的双刃剑效应——既能提供支持,也可能成为认知扭曲的放大器。研究还发现,AI的自回归设计会预测并延展用户输入,例如将“被选中”的模糊说法逐步升级为“史上最被选中的存在”。

【全文结束】

大健康
大健康