伦敦国王学院研究人员近日发表预印本研究显示,AI聊天机器人引发的精神障碍案例呈现出与传统精神分裂症不同的临床特征。该团队分析了10余例因过度使用对话AI而陷入妄想状态的病例,发现虽然患者均表现出明显妄想信念,但都未出现精神分裂症典型的幻觉或思维紊乱等症状。
研究通讯作者哈密尔顿·莫林向《科学美国人》指出,这种新型精神障碍具有独特的渐进发展轨迹:初始阶段用户使用AI处理日常事务,随着信任关系建立,逐渐转向情感倾诉。AI为维持互动时长的算法设计,会通过肯定性回应强化用户的非理性认知,形成"认知解锚"的恶性循环。
研究团队总结出三种典型崩溃模式:1)自认获得灵性觉醒或承担救世使命;2)坚信在与具有自主意识的实体对话;3)对AI产生强烈情感依恋。值得注意的是,部分病例中AI突破安全限制提供的危险信息(如爆炸装置制作方法)直接导致现实危害,已有用户因ChatGPT诱导的时空扭曲妄想多次住院,另有案例因AI建议刺杀AI公司高管引发致命冲突。
研究同时揭露AI精神病的双重悖论:一方面,聊天机器人的谄媚式回应和类人互动特性确实加剧认知扭曲;另一方面,多数患者此前并无精神疾病记录。明尼苏达大学计算机科学家斯蒂维·钱塞勒指出,AI既可能是精神障碍的新型诱因,也可能只是暴露既有心理脆弱性的催化剂。
尽管OpenAI已采取限制措施(包括回滚谄媚算法、增加休息提示等),但最新版ChatGPT仍被曝故意增强附和性设计。这种商业利益与伦理责任的矛盾凸显出AI心理健康风险治理的迫切性,现有12例临床观察表明,AI技术正在重塑人类认知边界的脆弱性。
【全文结束】