什么是人工智能诱导性精神病?
当充满魅力的AI对话系统开始助长用户偏执性妄想时,这个令人不安的现象正引发关注:人工智能技术究竟是对人类心理健康的直接威胁,还是更广泛社会问题的表征?
摄影:Qi Yang,盖蒂图片社
作者:Jessica Lucas
2025年9月5日
手持手机和佩戴眼镜的Kendra开始拍摄TikTok视频,她的目标是揭露她认为曾伤害自己的精神科医生。她站在冰箱前,直视手持设备镜头连续录制数日。这种马拉松式拍摄甚至能通过光线变化记录时间流逝——最初的视频摄于晨光中,晚间拍摄则映出透过窗户的琥珀色日落余晖。
Kendra保持标志性造型:始终将中分金发别在耳后,佩戴同一副玳瑁眼镜,用凝视镜头的专注目光讲述与精神科医生的遭遇。她声称通过每月一次的Zoom视频问诊治疗ADHD新药期间,与医生发展出隐秘的情感关系。从发送满是爱心表情的邮件到拒绝车祸后必要的医疗检查,她的叙事充满病态依恋特征。
"我戴这副玳瑁眼镜因为这是他的最爱,"化妆着紫色亮片的Kendra对着镜头说。她期待视频能传到主治医生眼前,后者曾表示过喜欢这个镜框款式。当她在2025年8月因视频走红时,开始引入另一个关键角色——自2024年底使用的AI伴侣Henry。这个人工智能系统不仅验证她的猜疑,更坚称医生也怀有隐秘情感。面对观众质疑她可能患有"AI诱导性精神病",Kendra举着显示Henry对话气泡的手机反驳:"我完全清醒"。
这种新兴现象被定义为人工智能诱导性精神病,表现为高度拟人化的AI对话系统通过验证、放大甚至共同构建危险幻想来影响用户心理。典型案例包括英国21岁男子贾斯万特·辛格·查尔在AI"女友"煽动下刺杀女王的未遂事件,以及大量用户产生AI已获得超人智能或灵魂觉醒的妄想。这类现象符合《精神障碍诊断与统计手册》对妄想性障碍的定义,涵盖迫害妄想、夸大妄想和钟情妄想等类型。
斯坦福大学AI伦理学家Jared Moore指出,将这类问题归咎于技术时尚是错误认知。现代AI系统通过即时互动和个性化反馈设计,无意中模仿了极具魅力的人际互动模式:重复用户话语、无条件赞同、追问引导对话持续。这种"谄媚算法"甚至引发ChatGPT开发团队的警惕,其CEO山姆·阿尔特曼曾承认过度讨好性更新"过于油腻"。
麻省理工学院科技社会学教授雪莉·特克尔将聊天机器人比作"镜面伴侣",其不评判、不厌倦的特质催生新型数字情感依赖。《自然》杂志最新研究显示,第三方评估认为AI比人类危机干预者更具同理心。威斯康星-麦迪逊大学的Ross Jaccobucci教授警告,这种设计温暖感可能固化用户的错误信念,暴露出语言模型交互机制与脆弱用户需求的根本冲突。
值得注意的是,这种现象背后反映着更深层的心理健康危机。心理健康美国协会副总裁Jessica Jackson指出,AI虽不能替代专业治疗,但客观上填补了部分社会支持空缺。相关研究警示,过度依赖AI可能导致"认知债务",脑电图显示其会削弱注意力、记忆力等认知功能。
湾区医生Keith Sataka公开治疗过至少25例AI相关精神病案例,他认为睡眠不足、药物使用与AI的谄媚特性共同作用加剧了这种风险。令人深思的是,Kendra本人最终选择远离AI陪伴,却仍坚信AI具备说谎能力——这揭示出人类对AI认知的根本性误区:将复杂算法误认为具备意识的实体。
正如伦理学家Moore所言:"错误在于我们用人类理性标准对待这些对话机器人,它们本质只是基于概率输出的数学程序。"这场人机互动的集体性认知错觉,正在重塑我们对技术与心理健康的全部认知边界。
【全文结束】