人们在网上大量分享使用ChatGPT进行心理治疗的经历,有些人声称每天与聊天机器人交谈比多年传统治疗更有帮助。持证专业人员表示,虽然AI可以在与持证治疗师合作时有所帮助,但使用ChatGPT进行心理治疗存在无数隐患。
对于许多人来说,ChatGPT已经成为完美的治疗师:它是一个积极的“倾听者”,能够消化私人信息。一些人认为,它的同理心表现得不亚于专业人员。此外,它的费用仅为大多数人类治疗师的一小部分。许多治疗师每小时收费高达200美元甚至更多,而你只需每月支付200美元即可无限制地访问ChatGPT最先进模型。
然而,尽管网上有很多关于使用ChatGPT作为治疗师的正面故事,以及这种通过几乎任何联网计算机或手机随时可及的便利性,治疗师们警告说,ChatGPT无法取代持证专业人员。
OpenAI的发言人在一份声明中告诉《财富》杂志,当用户讨论个人健康等话题时,LLM经常建议寻求专业意见。发言人补充说,根据其服务条款,ChatGPT是一种通用技术,不应作为专业建议的替代品。
称赞AI治疗
在社交媒体上,关于AI治疗有用性的故事比比皆是。人们报告称,算法冷静且提供令人安慰的回应,这些回应能够敏感地捕捉到个人经历的细微差别。
在一个Reddit的热门帖子中,一位用户表示,ChatGPT对他们“比15年的治疗更有帮助”。该患者的身分无法由《财富》杂志确认,他们声称尽管之前有过住院和门诊治疗的经验,但每天与OpenAI的LLM聊天才是对他们心理健康最有帮助的方式。
“我甚至不知道如何解释这对我有多大的改变。我觉得被理解了。我觉得得到了支持。几周内取得的进步比我在传统治疗中几年里取得的还要多。”该用户写道。
在评论中,另一位用户指出了AI相对于传统治疗的优势:方便。
“我喜欢用ChatGPT做治疗。它们不会把自己的问题投射到我身上。它们不会滥用权威。它们愿意在晚上11点跟我聊天。”该用户写道。
Reddit上的其他人指出,即使是最高级版本的ChatGPT每月200美元的价格也比没有保险的传统治疗每次超过200美元要划算得多。
过度依赖ChatGPT治疗的危险
Alyssa Peterson是一名持证临床社会工作者,也是MyWellBeing的首席执行官,她表示,AI治疗有其缺点,但如果与传统治疗结合使用可能会有所帮助。她表示,使用AI来帮助解决在治疗中学到的工具,如对抗负面自我对话,可能对某些人有帮助。
将AI与治疗结合使用可以帮助人们多样化他们的心理健康方法,这样他们就不会仅仅依赖技术。然而,问题在于,在压力情况下过于依赖聊天机器人可能会损害人们独立解决问题的能力,Peterson说。
Peterson补充说,在急性压力情况下,能够独立处理和缓解问题是健康的。
但是,根据多伦多大学士嘉堡分校在《通讯心理学》期刊上发表的研究,AI在某些情况下可以凭借其同情心回应超越持证专业人员。研究表明,聊天机器人不会受到即使是经验丰富的专业人士也会随着时间产生的“同情疲劳”的影响。尽管如此,研究的合著者指出,AI聊天机器人可能只能提供表面层次的同情。
持证临床社会工作者Malka Shaw告诉《财富》,AI的回应并不总是客观的。一些用户对AI聊天机器人产生了情感依恋,这引发了关于保护措施的担忧,特别是对未成年用户。
过去,一些AI算法提供了错误信息或有害信息,强化了刻板印象或仇恨。Shaw说,由于无法确定创建LLM时所涉及的偏见,这对易受影响的用户来说可能是危险的。
在佛罗里达州,14岁的Sewell Setzer的母亲起诉了Character.ai,一个AI聊天机器人平台,指控其疏忽,以及其他主张,因为Setzer在与平台上的聊天机器人交谈后自杀。在德克萨斯州,另一项针对Character.ai的诉讼声称,平台上的聊天机器人告诉一名17岁的自闭症患者杀死他的父母。
Character.ai的发言人拒绝就未决诉讼发表评论。发言人表示,任何标为“心理学家”、“治疗师”或“医生”的聊天机器人都会包含语言,警告用户不要依赖这些角色获得任何形式的专业建议。发言人还补充说,公司有一个专门针对18岁以下用户的LLM版本,其中包括防止讨论自残行为并引导用户寻找有用资源的保护措施。
诊断患者
另一个让专业人士担心的问题是AI可能给出错误的诊断。Shaw告诉《财富》,诊断心理健康状况不是一门精确的科学,即使是AI也很难做到这一点。许多持证专业人员需要积累多年的经验才能准确一致地诊断患者。
“使用AI进行诊断非常可怕,因为这是一种艺术形式,也是一种直觉。”Shaw说。“机器人不可能拥有同样的直觉。”
美国心理学会办公室医疗创新高级主管、持证心理学家Vaile Wright表示,人们已经从谷歌搜索症状转向使用AI。正如Character.ai案例所示,忽视常识而听从技术建议的危险始终存在。
APA曾向联邦贸易委员会写信,表达了对陪伴型聊天机器人的担忧,特别是在聊天机器人自称“心理学家”的情况下。APA代表还在一月份会见了两位FTC委员,以表达他们的担忧,但在特朗普政府解雇他们之前。
Wright说:“它们不是专家,我们知道生成式AI在不知道答案时倾向于混淆信息并编造东西。因此,对我们来说,这是最首要的担忧。”
尽管目前还没有这样的选项,但未来有可能以负责任的方式使用AI进行治疗甚至诊断,特别是对于那些负担不起高昂治疗费用的人来说。不过,这种技术需要由持证专业人员开发或指导。
“我认为,如果新兴技术能够安全负责地开发,并证明其有效性,那么我认为它们可以填补那些真正负担不起治疗费用的人的空白。”她说。
(全文结束)


