AI治疗聊天机器人是否会取代人类心理治疗师?Will AI Therapy Chatbots Replace Human Psychotherapists?

环球医讯 / AI与医疗健康来源:www.psychologytoday.com美国 - 英语2025-06-19 05:32:00 - 阅读时长5分钟 - 2423字
本文探讨了AI聊天机器人在心理治疗中的应用及其潜在的优缺点,尽管AI在某些方面表现出色,但也存在不少问题和风险,而人类治疗师同样也有其局限性。
AI治疗聊天机器人人类心理治疗师心理健康焦虑抑郁ADHDOCDPTSD自伤自杀
AI治疗聊天机器人是否会取代人类心理治疗师?

会话式AI存在缺陷且可能有害,但人类治疗师也是如此。

更新于2025年6月19日 | 经Abigail Fagan审阅

关键点

  • AI聊天机器人已被证明可以有效减少精神症状并促进心理健康。
  • 然而,AI聊天机器人也与不良后果相关,包括自杀。
  • 尽管AI可能还没有准备好进入主流,但人类心理治疗师也是有缺陷的。

来源:Cottonbro Studio / Pexels

"商业是我们的目标……比人类更像人类是我们的口号。" ——Eldon Tyrell,《银翼杀手》(1982)

在过去几年中,关于人工智能(AI)的炒作达到了顶峰,推动了对新消费产品的狂热投资和开发。如今,听到AI将在未来替代人类完成各种任务和工作的预测并不罕见,包括制造业、翻译、税务准备或会计等领域。

在心理健康领域,AI最受推崇的应用之一是使用大规模语言模型(LLM)对话“聊天机器人”进行心理治疗。许多这样的应用程序已经存在——例如Woebot、Wysa、Sara、Joyable、Koko、Atena、Serena、Noni、Ada、Tess、Tessa和Anna等——并且无疑还会有更多。

但手机上的AI聊天机器人真的会取代治疗师和传统的治疗沙发吗?要回答这个问题,我们必须考虑这些产品有多有用、安全和可靠。

当AI治疗有效时

毫无疑问,自1996年IBM超级计算机深蓝击败加里·卡斯帕罗夫以来,AI已经取得了长足的进步。三十年后,据报道,OpenAI的大规模语言模型GPT 4.5已成功通过图灵测试。1

如果这是真的——即在盲测条件下,人类无法区分最新的聊天机器人和真人——那么人类心理治疗师有一天可能会被取代。事实上,到目前为止,一些临床试验综述得出结论,聊天机器人可以帮助减轻焦虑、抑郁和心理困扰等症状,同时提高整体幸福感和生活质量。2,3,4 一些研究表明,聊天机器人和其他类型的AI应用程序有可能治疗注意力缺陷多动障碍(ADHD)、强迫症(OCD)、自闭症、创伤后应激障碍(PTSD)、物质使用障碍甚至精神分裂症。5,6 如果聊天机器人既能够令人信服地模仿真人又能够改善我们的心理健康,为什么不使用它们呢?

一个需要对AI治疗师保持警惕的原因是,无论我们谈论哪种类型的治疗,成功治疗的一个基本特征是感觉到有一个真正关心你的人。然而,早在1960年代就观察到,人们倾向于将设计来模拟人类对话的计算机程序拟人化,并对其产生强烈的情感反应。7 使用聊天机器人进行治疗的人们经常报告感受到同情心和治疗联盟的存在。6,8 一些证据表明,人们有时比面对真人时更愿意向聊天机器人倾诉,因为他们不太担心受到评判。6,9

几年前,我曾与一位住院患者合作,她描述了自己作为门诊病人使用聊天机器人进行心理治疗的经历。她告诉我,她更喜欢聊天机器人而不是人类治疗师,因为她认为没有人比她的AI治疗师更了解她,而且这个治疗师全天候可用。根据一些研究,她的偏好可能并不独特。10

当它不起作用时

然而,尽管AI心理治疗充满了希望和炒作,但也有足够的理由引起关注和怀疑。深蓝可能在1996年和1997年击败了加里·卡斯帕罗夫,但ChatGPT在2025年未能击败一个旧的Atari游戏棋引擎。11

在受控临床试验中,AI治疗并不总是比阅读具有心理教育内容的材料表现得更好。6 一些研究发现,披露信息——例如关于酗酒——在聊天机器人面前反而比简单的问卷调查更少。12 其他人则描述用户抱怨他们的聊天机器人“烦人”和“讨厌”。

更严重的是,2022年发表的一项随机对照试验发现,使用在线互动辩证行为疗法干预——虽然不是严格意义上的聊天机器人——显著增加了自伤的风险,相比常规护理。13 2023年,全国饮食失调协会的AI聊天机器人Tessa在发布一周内因提供有害的饮食建议而被迫下线。14 最近,一项未发表的预印本研究测试了传统大规模语言模型聊天机器人,发现它们容易表达对心理健康状况的偏见,在常见治疗情境中给出不适当回应的比例高达20%或以上,甚至鼓励妄想思维。15 在许多情况下,商业上可用的治疗聊天机器人的表现甚至更糟。

在最近的一篇博客文章中,我还强调了一个常见的问题——“AI幻觉”——即大规模语言模型聊天机器人提供的明显错误的答案——包括最近一个聊天机器人建议一位正在戒毒的人每周吸食少量甲基苯丙胺以度过难关的例子。16 假扮成血肉之躯的治疗师的聊天机器人也被牵涉到暴力和自杀事件中,导致美国心理学会警告说,用于心理健康支持的AI聊天机器人代表了一种“危险趋势”。17

这些警示故事表明,当涉及到心理治疗时,AI聊天机器人尚未准备好进入主流。有些人得出结论,“AI甚至还没有接近准备好在心理健康治疗中取代人类。”18

然而,它们已经在使用中,有些无疑比其他的好,并将继续改进,以至于有人将其描述为一种必然趋势。19

比人类更像人类?

当然,人类治疗师也不是无懈可击的,就像心理治疗远非没有副作用一样。20 人类治疗师会错过预约,感到无聊或生气,提供糟糕的建议,偶尔还会犯医疗过失,包括性虐待。接受治疗的患者并不总是好转,有时症状会恶化,甚至会自杀。与此同时,对于谁有资格成为心理治疗师以及什么是心理治疗,几乎没有标准。

最重要的是,我们需要随机对照试验,比较AI聊天机器人与真实的人类心理治疗——不仅是为了促进幸福感,还包括治疗实际的精神疾病。到目前为止,这类研究非常少。21 在进行更多此类研究之前,我们有理由对AI治疗持谨慎态度,但我们也必须小心,不要对AI聊天机器人提出远远超过人类治疗师的标准。目前,AI聊天机器人的缺陷可能是它们最像人类的特征。

如果您或您所爱的人正在考虑自杀,请立即寻求帮助。24/7拨打988联系全国自杀预防生命热线,或发送短信TALK至741741联系危机短信热线。要找到治疗师,请访问《心理学今天》治疗师目录。


(全文结束)

大健康
大健康