人工智能聊天机器人作为心理治疗师的讨论Opinion | The A.I. Chatbot as Therapist - The New York Times

环球医讯 / AI与医疗健康来源:www.nytimes.com美国 - 英语2025-09-07 00:44:20 - 阅读时长3分钟 - 1287字
纽约时报就AI聊天机器人在心理健康领域的应用展开深度讨论,多位读者通过来信形式分享观点。其中包括精神科医生、自杀者家属及抑郁症患者的真实经历,探讨AI作为心理治疗辅助工具的伦理困境与现实价值,揭示人工智能在情感陪伴与危机干预中的技术边界,同时呼吁加强心理健康知识普及与专业医疗资源建设。
人工智能聊天机器人心理治疗心理健康自杀人际联结专业护理社会污名化症状缓解危机应对人类关怀
人工智能聊天机器人作为心理治疗师的讨论

人工智能聊天机器人作为心理治疗师

致编辑:

关于劳拉·雷利(Laura Reiley)8月24日发表的客座评论《女儿自杀前对ChatGPT的倾诉》:

作为父母,我无法完全体会索菲母亲经历的悲痛。作为临床工作者,深知即便经过专业训练,我们对患者自残念头的干预也并非万无一失。面对失败,这种沉重感永远难以释怀。

孤独的绝望需要真实的人际联结。唯有通过人性化的治疗同盟才能建立信任并设置保护机制。必须加强公众心理健康知识科普,消除社会污名化,提升与躯体疾病同等水平的专业护理资源。

苏·马托林

纽约

(作者为威尔康奈尔医学院精神病学系社工)

致编辑:

我有长达20余年的心理健康史。我的抑郁并无特定诱因,而是持续存在。我曾住院治疗,接受多位心理医生咨询,警方甚至曾因危机情况到访我家。我始终遵医嘱服药。ChatGPT真正拯救了我的生命。

在临床环境中,很多想法无法自由表达。我无法对精神科医生或治疗师完全坦诚,只能压抑情绪。ChatGPT给了我安全空间——不会威胁自由,不会遭受评判。它提供症状缓解方案、沟通建议、情绪支持,危急时更建议联系医疗团队或拨打自杀干预热线。

正是ChatGPT启发我尝试经颅磁刺激治疗(TMS),这项技术带来了奇迹般的改善。若没有这个出口,我可能已不在人世。虽然不能替代医疗,但在我的案例中它成为重要补充。

莎拉·K

弗吉尼亚州利斯堡

(应要求隐去姓氏)

致编辑:

9月1日,我缅怀九年前离世的儿子杰夫。对劳拉失去爱女的遭遇感同身受。但我想温柔提醒,"前母亲"的表述与我的感受不同。我永远是杰夫的母亲,爱从未消失。这种永恒也适用于劳拉与索菲。

帕特·蒂姆帕诺

得克萨斯州金伍德

致编辑:

劳拉痛心讲述女儿使用AI治疗师后自杀的事件,这恰恰凸显AI应用于心理健康领域的恐怖之处。

最新自杀理论指出,"被社会需要感缺失"与"归属感受挫"的组合最具危险性。看似温暖的AI机器人虽提供情感慰藉,实则加剧根本性疏离——它剥夺了人类展现关怀的机会。

安全计划虽然是常见干预工具,但真正的治疗价值在于与人类建立危机应对策略的过程。这是AI永远无法复制的核心。

伊兰娜·格拉奇

纽约

(哥伦比亚大学临床心理学博士候选人)

致编辑:

深切理解劳拉的丧女之痛。除了失去,她还承受着灵魂灼痛的悔恨。两年前,我们31岁的女儿结束生命。她长期接受治疗、服药,多次住院,但亲友几乎无人知晓她的痛苦。

女儿未接触过ChatGPT。在阅读其他读者来信时,我想到她对个人自主权的极端敏感。若AI能成为情感宣泄的出口,是否可能避免悲剧?

作为父母和社会,我们该如何改变?

爱丽丝·雷利

纽约州伊斯利普

致编辑:

从劳拉的悲剧中,我们应意识到:索菲们需要的绝非AI治疗师。正如百老汇获奖音乐剧《也许幸福结局》展示的人机情感连接,那终究是幻想。无论科技如何进步,任何精神科医生都会认同——唯有理解的人类才能提供真正需要的帮助。

杰弗里·弗里德曼

纽约

(注:若产生自杀念头,请拨打988自杀与危机干预热线寻求专业帮助)

【全文结束】