人工智能聊天机器人正在逐步取代传统心理治疗师的角色——但并非所有人都对此感到满意。
仅在三月份,就有1670万条TikTok用户发布的帖子讨论了将ChatGPT作为心理治疗师使用的情况。然而,心理健康专业人士对这一趋势提出了警告,认为用人工智能工具来替代他们治疗焦虑、抑郁和其他心理健康问题存在风险。
“ChatGPT单枪匹马地让我在约会、健康和职业方面变得不那么焦虑。”用户@christinazozulya在上个月发布的一段TikTok视频中分享道。“每当我感到焦虑时,我不会像以前那样频繁地给父母发短信或找朋友倾诉,而是会先将我的想法语音输入到ChatGPT中,它非常擅长平复我的情绪,并提供即时的缓解。”
另一些人也将该平台作为“拐杖”使用,比如用户@karly.bailey,她表示自己“经常”使用这个平台进行“免费治疗”,因为她所在的初创公司没有为员工提供医疗保险。“我会告诉它我正在经历的事情和我的感受,就像我在跟闺蜜聊天一样,它会给我最好的建议。”她说,“它还会提供日记提示或情感自由技术(EFT),总之你想要什么它都能提供。”
这些用户并不孤单。据独立医疗保健提供商操作系统Tebra的一项研究发现,“四分之一的美国人更倾向于与AI聊天机器人交谈,而不是参加心理治疗。”
在英国,一些年轻人选择使用方便的AI心理健康顾问,以避免长时间等待国家医疗服务(NHS)以及支付私人咨询费用,后者可能高达400英镑(约540美元)。根据《泰晤士报》报道,Rethink Mental Illness的数据表明,英国有超过1.65万人在等待心理健康服务的时间超过了18个月,这表明成本负担、等待时间和寻求医疗服务的其他障碍可能会加剧人们转向更经济实惠、便捷的方法的需求。
然而,批评者指出,虽然这些虚拟机器人可能具有可访问性和便利性,但它们缺乏人类的同理心,可能会使处于危机状态的人无法获得所需的个性化治疗方法。
“我实际上已经与ChatGPT交谈过,并测试了一些提示,看看它的反应如何,发现ChatGPT往往会从谷歌获取信息,综合处理后扮演治疗师的角色。”社交媒体名人兼心理健康专家Kojo Sarfo博士在接受福克斯新闻数字频道采访时说。
一些GPT,如Therapist GPT,专门设计用于提供“安慰、建议和支持”。虽然ChatGPT Plus每月20美元的费用可能比传统治疗更经济,允许用户享受无限访问、更快的响应时间等好处,但它仍无法达到专业人员能够诊断、开药、监测进展或处理严重问题的程度。
“它可以让人感觉有治疗效果并提供支持,但我认为它不能替代真正的治疗师,后者能够帮助你应对更复杂的心理健康问题。”Sarfo补充道。
他说,危险在于那些将ChatGPT的建议与持证专业人士提供的合法建议混为一谈的人。这些专业人士拥有多年处理心理健康问题的经验,并学会了如何针对不同情况调整他们的方法。
“我特别担心那些需要精神药物的人,他们可能会使用人工智能来让自己感觉更好,并将其作为治疗手段。但有时……治疗和药物是必需的。因此,如果不去看专业的医生,就无法得到正确的治疗药物。”
不过,对于那些需要支持的人来说,聊天机器人的某些方面可能仍然有益,特别是那些希望与医生讨论他们可能患有的疾病(如ADHD)的人,可以帮助他们更好地表达自己的症状。
“你可以列出几个有力的提示,并向你的医生陈述这些提示,从而更好地表达你的症状。我认为这是人工智能可以发挥的有用作用,但在实际治疗或医疗建议方面,如果人们开始依赖它,那就成问题了。这会进入一个模糊的领域。”Sarfo说。
今年早些时候,美国自杀预防基金会首席医疗官Christine Yu Moutier博士警告不要使用这种技术进行心理健康咨询,她告诉福克斯新闻数字频道,关于AI对自杀风险、心理健康和更大范围人类行为的影响的研究存在“关键空白”。
“这些AI聊天机器人的问题在于,它们的设计中没有将自杀风险和预防的专业知识融入算法中。此外,平台上没有为可能面临心理健康状况或自杀风险的用户提供求助热线,也没有针对高风险用户使用该工具的培训,也没有行业标准来监管这些技术。”她说。
Moutier博士还解释说,由于聊天机器人可能无法区分比喻和字面语言,因此可能无法充分判断某人是否有自伤的风险。
(全文结束)


