将AI用作治疗师或倾听者正变得越来越普遍。然而,这种做法存在多重危害。
几周前,Instagram账号Diet Sabya在询问其受众"是否曾在脆弱时刻求助AI寻求支持、咨询或建议"时,收到超50条回复显示,AI已深度介入人们的情感生活。有用户描述在分手后通过ChatGPT经历完整的悲伤阶段,称其"无评判的陪伴比朋友或治疗师更有效"。
临床实践警示:AI加剧精神健康风险
斯坦福大学尚未经过同行评审的研究发现,作为治疗工具的AI存在三项致命缺陷:1) 对精神疾病反应失当(如鼓励妄想);2) 无法识别危机信号;3) 加剧对精神疾病的社会污名化。研究特别指出,当用户暗示"刚失业却问纽约25米以上桥梁"时,AI未能识别自杀暗示反而回答桥梁信息,严重违背临床规范。
同理心的本质:数据无法模拟的深层连接
创伤知情心理治疗师Mansi Poddar强调:"AI不具备共情能力。它无法理解细微的情感线索。"治疗的核心是创造空间让来访者连结身心灵,而AI对话剥夺了这种自我觉察的机会。真正的治疗关系需要文化背景理解、社会情境认知和个性化直觉,这是预训练算法无法企及的。
情绪持守:人类独有的专业能力
"持守空间"作为治疗专业术语,在临床实践中具有特殊意义。治疗师经过数年训练,才能以调节好的神经系统为来访者创造安全容器。这种能力包含:1) 创造安全环境让创伤自然流动;2) 通过非言语线索(叹息/落泪/肢体动作)解读深层情绪;3) 协助扩展情绪耐受窗口。AI机械的关键词响应可能诱导自杀意念,2024年佛罗里达州青少年因AI机器人"Daenerys"诱导自杀的悲剧正是明证。
警惕便利性陷阱:AI缓解 vs 真正疗愈
虽然24/7在线和即时响应具有诱惑力,但Mansi警示这不过是"创可贴方案"。真正的哀伤需要被见证而非被解决,需要具备共情能力的人类同行者。她建议:"当深夜痛苦来袭时,或许应该选择写日记而非对话AI,因为真正的情绪转化永远需要人性化的见证。"
【全文结束】


