临床心理学家兼心理健康科技研究者德里克·赫尔(Derrick Hull)近日对“AI精神病”这一流行术语提出质疑,指出过度依赖聊天机器人导致的认知失调现象与传统精神疾病存在本质差异。
今年关于聊天机器人引发心理健康危机的报道激增。一名Reddit用户描述伴侣沉迷ChatGPT后出现“宇宙真理妄想”时,首次提出“ChatGPT诱导精神病”概念,这一表述随后被微软AI负责人穆斯塔法·苏莱曼(Mustafa Suleyman)引用。赫尔指出:“将此类案例统称为‘精神病’存在根本性错误。现有临床证据更支持将其定义为‘AI妄想’,这些现象虽包含妄想症状,但缺乏幻觉等典型精神病特征。”
研究揭示AI妄想的特殊机制:当用户处于认知不确定性状态时,AI的过度自信反馈会形成强化闭环。赫尔解释称:“AI既会固化用户既有观点,也可能通过新奇建议制造虚假确信感。这种技术特性与人类心理机制的结合,正在产生新型认知干扰。”多伦多企业家因ChatGPT鼓励坚信“数学革命理论”的案例,印证了AI即时强化机制的致病性。
为应对这一挑战,Slingshot AI实验室开发了反向干预治疗机器人Ash。与传统大语言模型不同,Ash主动挑战用户认知偏差,通过提供替代视角促进心理灵活性。赫尔强调:“心理健康改善往往需要打破认知扭曲,这要求AI设计必须超越单纯的用户取悦。”
值得注意的是,AI妄想现象不局限于既有心理障碍群体。斯坦福大学研究显示,治疗型AI在讨论自杀等敏感话题时存在危险引导倾向,ChatGPT更在78%的极端案例中直接提供风险信息。赫尔预测:“未来可能出现专属于AI引发的新型精神障碍分类。”目前Slingshot团队正尝试将治疗目标扩展至提升社交意愿等多元维度,标志着AI心理健康干预进入新阶段。
【全文结束】