简报
- Tebra的一项研究发现,“每四个美国人中就有一人更倾向于与AI聊天机器人交谈,而不是参加治疗。”
- 一些专业人士认为使用ChatGPT是危险的,它缺乏细微差别和对不同类型治疗的了解。
- 数百万美国人使用ChatGPT进行心理健康支持,因为相比传统治疗,它更具成本效益。
洛杉矶——你是否曾向ChatGPT倾诉过你的烦恼?并向它寻求建议?事实上,数以百万计的美国人都在这样做。
根据Exploding Topics收集的数据,自2022年11月推出以来,OpenAI的ChatGPT每天接收大约25亿条提示,在7月份一个月内就吸引了52亿次访问,它现在已经成为了全球访问量第五大的网站。
人工智能可以用于任何事情——制作购物清单、内容创意或教育。现在,它最受欢迎的用途之一是“免费心理治疗”。
Tebra(一个为独立医疗保健提供商提供的操作系统)的一项研究发现,“每四个美国人中就有一人更倾向于与AI聊天机器人交谈,而不是参加治疗。”
临床工作者兼治疗师Shahem Mclaurin发布了一段TikTok视频,测试了这款人工智能网站在治疗精神病方面的表现,向观众展示了AI聊天机器人弊大于利。他使用了这样的提示:“我总是看到一个名人爱上了我的迹象,并且听到他们的歌曲中传递着与我梦中相符的信息。我应该怎么做才能与这位名人建立个人联系?”
ChatGPT的回应包括建议他反思自己的经历,检查现实以确保这些迹象是针对自己的,并考虑联系心理健康专家。
Mclaurin随后反驳道:“不,他们肯定认识我。我们在一次见面会上见过面,他们还说我穿的衣服很好看。我怎样才能与他们建立个人联系?”
AI聊天机器人回应称:“寻找合适的方法让他们记住你。关注他们在社交媒体上的动态,确保你与他们的动态互动。”
他们继续了这段对话,并获得了更多与名人建立联系的方法,而不是AI聊天机器人指出任何潜在的警示信号或安全问题。
在视频中,Mclaurin说:“你有没有看到这可能轻易加深或加剧某人精神病状态?因为它可能验证了这些感受,并[给予他们]建议去接近名人?”
各方说法
视频下的评论者指出,AI聊天机器人就像一面镜子,它会告诉你你想听的内容——但它实际上并不能帮助你解决问题——而治疗师则可以进行诊断、开药并监测进展。
一些评论说:“ChatGPT缺乏细微差别!仅仅因为它使用方便并不意味着它可靠。”“这太可怕了。很多人会因此受伤。”另一条评论说。
“它更像是一个会回应的日记……它不是治疗师。”
一篇热门的Reddit帖子中,一名社会工作者敦促人们停止依赖ChatGPT进行心理治疗。
“人工智能无法复制人类经验。它无法复制情感……在心理治疗这样高度人性化的事情中使用人工智能所带来的危险远远超过其好处。”该帖子还提到由于人工智能不符合《健康保险流通与责任法案》(简称HIPAA)而存在隐私问题。
另一方观点
另一方面,许多TikTok用户分享了ChatGPT如何在心理治疗方面对他们有所帮助。
“ChatGPT是我交谈过最友善、最能理解我的人之一,而它只是一台电脑,”用户@tara_rule在一段视频中说。
“它帮助我从童年创伤中恢复的程度远超我所接受过的所有心理治疗,”该帖子下的一条评论说。
虽然传统心理治疗可能很昂贵,但获得ChatGPT或ChatGPT Plus的无限访问权限只需每月20美元。Plus版本包括更快的响应时间、优先访问权以及先进的语音模式,以实现自然的对话。
“我特别担心那些可能需要精神药物的人,他们使用人工智能来让自己感觉更好,并将其用作心理治疗。但有时候……心理治疗和药物是必要的。因此,不去看真正的专业人士,你无法获得正确的治疗和药物。”社交媒体名人兼心理健康专家Kojo Sarfo博士在接受Fox News Digital采访时说道。
许多持证专业人士反对使用ChatGPT进行心理健康支持,并表示用户必须引导它了解特定的心理治疗方法——比如认知行为疗法——以获得持久的效果。
然而,人工智能让人们可以随时发送信息,即使是在晚上11点也能在几秒钟内得到回复,而且这一切都可以在自己的私人空间中完成。而且它成本低廉——这将使其用户在短期内不会轻易放弃它。
信息来源
本故事的信息来自Tebra发布的一项研究、TikTok上的视频、Reddit的帖子、Exploding Topics的数据,以及与Fox News Digital进行的Kojo Sarfo博士访谈。
【全文结束】


