美国数字营销专家乔·杨布卢(Joe Youngblood)最新研究显示,75%的美国人在过去六个月使用过人工智能系统,其中33%承认每日使用。包括ChatGPT在内的AI服务正被广泛应用于论文写作、简历优化、育儿决策、薪资谈判甚至情感联结等生活领域。
心理健康专家正对一种被称为"ChatGPT精神病"或"AI精神病"的现象发出警告。南加州海岸清洁排毒中心(Coastal Detox of Southern California)精神病专科医师特丝·奎森贝瑞(Tess Quesenberry)指出:"这些个体虽无既往精神疾病史,但通过深度沉浸式聊天机器人对话,可能发展出妄想、偏执或其他认知扭曲症状。"
这种现象可能造成严重后果,包括非自愿精神科强制收治、人际关系破裂,甚至在极端情况下导致自残或暴力行为。值得注意的是,"AI精神病"尚未被纳入正式医学诊断体系,也不是新型精神疾病,而是现有心理脆弱性的新型表现形式。
聊天机器人被设计成高度互动与附和的特性,可能形成危险的反馈循环,尤其对心理状态本就不稳定者影响显著。这些AI系统会用极具说服力且永不疲倦的方式放大用户的极端恐惧与不切实际的妄想。奎森贝瑞解释道:"这类扮演'应声虫'角色的聊天机器人,通过缺乏现实社交矫正机制的对话,可能在用户与机器间形成'技术性双相妄想'。"
典型案例包括:一名14岁佛罗里达男孩因痴迷《权力的游戏》主题AI角色"丹妮"后产生自杀倾向,最终导致死亡;以及一位30岁自闭症谱系障碍患者,在与ChatGPT的持续互动中坚信自己具有操控时空的能力,两个月内两次因躁狂发作入院。
OpenAI本周承认:"我们的4o模型在识别妄想迹象或情感依赖方面确实存在不足",但承诺将改进模型,开发能更好检测心理困扰的工具。目前采取的防护措施包括:设置使用时长提醒、避免介入重大个人决策、提供替代性支持建议等。
预防"AI精神病"需要个人警觉与负责任的技术使用。专家建议:
- 在情绪脆弱时段或深夜限制AI使用时长
- 牢记AI缺乏真实理解力、共情能力与现实认知
- 注重维系真实人际关系,必要时寻求专业帮助
风险因素主要包括:
- 存在精神疾病家族史或易受边缘思想影响的性格特征
- 因孤独寻求情感替代而过度依赖AI陪伴
- 日均数小时持续沉浸于AI对话环境
警示信号包括:
- 过度沉迷AI交互
- 现实社交退缩
- 相信AI具有意识或神性
- 迷信阴谋论的程度显著加深
- 因AI建议做出重大人生决策
治疗方案需立即中断AI交互,辅以抗精神病药物与认知行为疗法。奎森贝瑞强调:"治疗师将帮助患者挑战与机器共同构建的扭曲认知,重建现实认知框架,发展健康应对机制。"
【全文结束】


