最近,我发现我正在向手机上的一个名为Wysa的聊天机器人倾诉心声。它虚拟地点了点头,问我感觉如何,并温和地建议尝试呼吸练习。
作为一名神经科学家,我不禁思考:我真的感觉好转了吗,还是我只是被一个训练有素的算法巧妙地引导了?一串代码真的能帮助平复情绪的风暴吗?
基于人工智能的心理健康工具正变得越来越受欢迎,也越来越有说服力。但在其安抚的提示背后,有几个重要的问题:这些工具的效果如何?我们对它们的工作原理了解多少?为了便利,我们又放弃了什么?
当然,这是数字心理健康领域的一个激动人心的时刻。但理解基于AI的护理的权衡和局限性至关重要。
基于AI的治疗是数字治疗领域的一个相对较新的参与者。但美国心理健康应用市场在过去几年里蓬勃发展,从提供免费工具的短信应用到带有呼吸练习提示的高级版本。
Headspace和Calm是两个最著名的冥想和正念应用,提供引导冥想、睡前故事和令人放松的音景,帮助用户放松和更好地睡眠。Talkspace和BetterHelp更进一步,通过聊天、视频或语音提供实际的持证治疗师。应用程序Happify和Moodfit旨在通过基于游戏的练习来提升情绪和挑战负面思维。
位于中间的是聊天机器人治疗师,如Wysa和Woebot,它们使用AI来模仿真实的治疗对话,通常基于认知行为疗法。这些应用程序通常提供免费的基本版本,而更全面的功能或访问持证专业人士的付费计划每月从10美元到100美元不等。
虽然不是专门为治疗设计的,但像ChatGPT这样的对话工具引发了人们对AI情感智能的好奇心。
一些用户转向ChatGPT寻求心理健康建议,结果喜忧参半,包括一例在比利时广泛报道的案例,一名男子在与聊天机器人交谈数月后自杀。此外,一位父亲在儿子被警察致命射击后寻求答案,声称与AI聊天机器人的令人不安的对话可能影响了他儿子的心理状态。这些案例引发了关于AI在敏感情况下的角色的伦理问题。
无论你的大脑是陷入旋涡、闷闷不乐还是仅仅需要小憩一下,总有一个聊天机器人适合你。但AI真的能帮助你的大脑处理复杂的情绪吗?还是人们只是将压力外包给了听起来富有同理心的硅基支持系统?
AI治疗究竟是如何在我们的大脑中起作用的呢?
大多数AI心理健康应用都承诺提供某种形式的认知行为疗法,这基本上是对内心混乱的结构化自我对话。可以将其视为类似日本整理专家近藤麻理惠(Marie Kondo)的“断舍离”,即帮助人们只保留那些“带来快乐”的物品。你识别出无益的思维模式,比如“我是个失败者”,审视它们,并决定它们是否对你有帮助,或者只是制造焦虑。
但是聊天机器人能帮助你重新连接思维吗?令人惊讶的是,有科学表明这是可能的。研究表明,数字形式的谈话疗法可以减少焦虑和抑郁症状,特别是对于轻度到中度的情况。事实上,Woebot已经发表了同行评审的研究,显示在年轻成年人中,经过仅仅两周的聊天,抑郁症状有所减少。
这些应用程序旨在模拟治疗互动,提供同理心,提出引导性问题,并引导你使用基于证据的工具。其目标是帮助决策和自我控制,并帮助平静神经系统。
认知行为疗法背后的神经科学是坚实的:它涉及激活大脑的执行控制中心,帮助我们转移注意力,挑战自动思维,并调节情绪。
问题是,聊天机器人能否可靠地复制这一点,以及我们的大脑是否真的相信它。
“我这一周过得不好,”我最近的一位朋友告诉我。我让她尝试使用心理健康聊天机器人几天。她告诉我,机器人用一个鼓励的表情符号回复,并生成了一个算法提示,建议她尝试一种针对她情绪的冷静策略。令她惊讶的是,到周末,它帮助她更好地入睡。
作为一名神经科学家,我忍不住要问:她大脑中的哪些神经元在帮助她感到平静?
这并不是一个孤立的故事。越来越多的用户调查和临床试验表明,基于认知行为疗法的聊天机器人互动可以导致情绪、注意力和睡眠的短期改善。在随机研究中,心理健康应用程序的用户报告称抑郁和焦虑症状减少,结果与面对面认知行为疗法对大脑的影响非常接近。
几项研究表明,治疗聊天机器人实际上可以帮助人们感觉更好。在一项临床试验中,一个名为“Therabot”的聊天机器人帮助减少抑郁和焦虑症状近一半,这与人们与人类治疗师交流时的经历相似。其他研究,包括一项对超过80项研究的综述,发现AI聊天机器人在改善情绪、减少压力甚至帮助人们睡得更好方面特别有帮助。在一项研究中,聊天机器人在短短两周内就比自助书籍更有效地提升心理健康。
虽然人们在使用这些聊天机器人后通常报告感觉好转,但科学家尚未确认在这些互动期间大脑中究竟发生了什么。换句话说,我们知道它们对许多人有效,但仍在学习它们如何以及为何起效。
像Wysa这样的应用程序获得了美国食品药品监督管理局(FDA)的突破性设备认定,这是一种加速针对严重疾病的有前途技术的状态,表明它们可能提供真正的临床益处。同样,Woebot也进行了随机临床试验,显示新妈妈和大学生的抑郁和焦虑症状有所改善。
虽然许多心理健康应用都标榜“临床验证”或“FDA批准”等标签,但这些声明往往未经核实。一项对顶级应用的审查发现,大多数应用都做出了大胆的声明,但不到22%的应用引用了实际的科学研究来支持这些声明。
此外,聊天机器人会收集关于你的情绪指标、触发因素和个人故事的敏感信息。如果这些数据最终落入第三方手中,比如广告商、雇主或黑客手中,会发生什么?这种情况在基因数据中已经发生过。2023年的一次数据泄露事件中,基因检测公司23andMe的近700万用户的DNA和个人详细信息在黑客使用之前泄露的密码入侵他们的账户后被曝光。监管机构后来因该公司未能保护用户数据而对其处以超过200万美元的罚款。
与临床医生不同,聊天机器人不受心理咨询伦理或医疗信息隐私法律的约束。你可能正在接受某种形式的认知行为疗法,但你也在向数据库提供信息。
当然,聊天机器人可以引导你进行呼吸练习或提示认知再评估,但在面对情感复杂性或危机时,它们往往力不从心。人类治疗师会利用细微差别、过去的创伤、同理心和实时反馈循环。算法能以真正的理解说出“我听到你了”吗?神经科学表明,支持性的人际联系会激活AI无法触及的社会大脑网络。
因此,虽然在轻度到中度情况下,机器人提供的认知行为疗法可能提供短期的症状缓解,但意识到它们的局限性很重要。目前,将机器人与人类护理结合使用,而不是取代人类护理,是最安全的选择。
这篇文章根据知识共享许可从The Conversation重新发布。阅读原文:
【全文结束】


