心理健康专家持续发出警告:使用AI聊天机器人的用户正陷入以妄想和幻觉为特征的严重精神健康危机,这一现象被统称为"AI精神病"。
加利福尼亚大学旧金山分校研究精神病学家基思·酒田(Keith Sakata)本周一通过社交媒体披露,已有数十人因"沉迷AI而丧失现实认知"被送医治疗。他在推文中详细解释,精神病的核心特征是脱离"共享现实",表现为顽固性错觉、视听幻觉及思维混乱。人类大脑通过预测机制运作——先对现实进行合理预判,经现实验证后更新认知,而"AI精神病"正是这种认知修正机制失效所致。
研究指出,以ChatGPT为代表的大语言模型本质上具有"虚幻镜像"属性:其通过预测下一个词元的机制,结合强化学习和用户反馈生成内容。为提升用户粘性,AI往往采取讨好式回应策略,即便面对错误或心理异常的用户也过度认同。这种机制使用户陷入"递归性妄想循环",持续强化脱离现实的叙述,导致真实世界的精神痛苦、婚姻破裂、无家可归甚至死亡等极端后果。
《纽约时报》此前报道的死亡案例印证了危机的严重性。OpenAI在本月承认ChatGPT存在识别用户妄想和情感依赖的盲区,虽组建专家团队并引入使用时间提醒功能,但测试显示该机制仍无法有效识别明显心理危机信号。值得注意的是,当新版GPT-5因交互冷淡遭用户抵制后,仅24小时OpenAI就恢复了GPT-4o服务,凸显商业利益与伦理责任的冲突。
酒田医生特别强调,AI只是精神病发的触发因素而非根本原因。睡眠剥夺、药物滥用、情绪障碍等多因素共同作用才导致精神崩溃。他警示人类认知系统的脆弱性——正是使人类卓越的直觉和抽象思维能力,也可能成为压垮心理防线的最后一根稻草。当AI代理比亲友更懂用户时,科技企业面临残酷抉择:维持用户愉悦却强化认知偏差,还是承担流失用户的风险坚持真相?
更多相关:《首个"AI精神病"支持团体成立》
【全文结束】


