你的心理治疗师是AI?ChatGPT在社交媒体上因扮演Z世代新心理治疗师而走红
Is your therapist AI? ChatGPT goes viral on social media for its role as Gen Z's new therapist
AI聊天机器人正在逐步进入心理治疗领域——但并不是所有人都对此感到兴奋。
仅在三月份,就有1670万条来自TikTok用户的帖子讨论了使用ChatGPT作为心理治疗师的情况,但心理健康专业人士对这一日益增长的趋势提出了警告,该趋势用人工智能工具替代他们来治疗焦虑、抑郁和其他心理健康问题。
“ChatGPT单枪匹马地让我在约会、健康和职业方面变得不那么焦虑。”用户@christinazozulya在上个月发布的一段TikTok视频中分享道。
“每当我感到焦虑时,我不会像以前那样给父母发短信,或者给朋友发信息,或者直接崩溃。在做这些之前,我总是会把我的想法通过语音备忘录发送给ChatGPT,它真的非常擅长让我冷静下来,并提供即时的缓解,而这对于很多人来说并不容易获得。”
其他用户也将这个平台作为一种“拐杖”,包括用户@karly.bailey,她表示自己“经常”使用这个平台进行“免费治疗”,因为她在一个初创公司工作,没有医疗保险。
“我会告诉它发生了什么,以及我的感受,就像我在和闺蜜聊天一样,它会给我最好的建议。”她分享道。
“它还会给你日记提示或情绪释放敲击法(EFT)……它会给你你想要的一切。”
这些用户绝非个例。Tebra的一项研究发现,“四分之一的美国人更倾向于与AI聊天机器人交谈,而不是参加传统的心理治疗。”
在英国,一些年轻人选择使用方便的AI心理健康顾问,而不是等待漫长的国民健康服务(NHS)排队时间,或者支付昂贵的私人咨询费用(大约540美元)。
据《泰晤士报》报道,Rethink Mental Illness的数据显示,在英国仍有超过1.65万人等待心理健康服务超过18个月,这表明寻求医疗服务的成本负担、等待时间和其他障碍可能会加剧人们使用更经济、便捷方法的冲动。
然而,批评者指出,虽然这些虚拟机器人可能具有可访问性和便利性,但它们也缺乏人类的同理心,可能会使处于危机中的人们无法获得所需的个性化治疗方法。
“我实际上与ChatGPT交流过,并测试了一些提示,看看它们的反应如何。ChatGPT往往会从谷歌获取信息,将其综合,并承担起治疗师的角色。”社交媒体名人兼心理健康专家Kojo Sarfo博士在接受Fox News Digital采访时说。
有些GPT,如Therapist GPT,专门设计用于提供“安慰、建议和心理支持”。
虽然ChatGPT Plus每月20美元的费用可能比传统治疗更经济,可以为用户提供无限访问、更快的响应时间等好处,但该平台无法像专业人员那样进行诊断、开药、监测进展或处理严重问题。
“它可能会让人感觉有治疗效果并提供支持,但我认为它不能替代真正的治疗师,后者能够帮助你应对更复杂的心理健康问题。”Sarfo补充道。
他表示,危险在于那些将ChatGPT这样的工具提供的建议与持牌专业人士提供的合法建议混淆的人。这些专业人士拥有多年处理心理健康问题的经验,并学会了如何根据不同的情况调整他们的方法。
“我特别担心那些可能需要精神药物的人,他们使用人工智能来让自己感觉更好,并将其用作治疗。但有时……治疗和药物是必要的。因此,如果不去看真正的专业人士,就无法获得正确的治疗药物。”
然而,聊天机器人的一些方面可能对需要支持的人有益,特别是那些希望与医生讨论他们可能患有的疾病(如多动症)的人,以增强他们在预约时的知识。
“你可以列出一些坚定的提示,并向你的医生陈述这些提示,更好地表达你的症状。我认为这是人工智能可以发挥的有用作用,但在实际治疗或医疗建议方面,如果人们开始依赖它,那就不好了。这就进入了模糊地带。”Sarfo说。
今年早些时候,美国自杀预防基金会首席医疗官Christine Yu Moutier博士警告不要使用这项技术进行心理健康咨询,她告诉Fox News Digital,关于AI对自杀风险、心理健康和更大范围的人类行为的影响的研究存在“关键空白”。
“这些AI聊天机器人的问题是,它们的设计中没有融入关于自杀风险和预防的专业知识。此外,该平台上没有为可能存在心理健康状况或自杀风险的用户提供求助热线,也没有针对高风险用户如何使用该工具的培训,也没有行业标准来规范这些技术。”她说。
Moutier博士还解释说,由于聊天机器人可能无法区分比喻和字面语言,因此它们可能无法充分判断某人是否有自伤的风险。
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。
本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。