一个稳步增长的Z世代和千禧一代群体正转向人工智能而非健康专业人士,导致了意想不到的后果。
Medcare Camali诊所的临床心理学家Sreevidhya Kottarapat Srinivas告诉《wknd.》杂志,人们对ChatGPT等AI工具在心理健康指导方面的日益依赖,反映了求助方式的一种更大转变。
这一趋势在年轻一代中更为明显,对他们来说,AI已成为探索情绪或理解症状的第一接触点,然后再寻求专业帮助。“虽然这一趋势为早期心理教育和去污名化心理健康问题提供了潜力,但它不应替代合格的心理健康专业人士,”她解释道。
去年,奥利弗·怀曼论坛的一项研究发现,36%的Z世代和千禧一代会考虑使用AI进行心理健康支持,而其他世代只有27%的人愿意这样做。这一趋势因心理健康问题和意识的增加以及污名逐渐减少而引发。
自疫情以来,根据世界卫生组织的数据,抑郁和焦虑增加了25-27%。哈佛医学院和昆士兰大学的研究人员表示,预计世界上一半的人口在其一生中将经历某种心理健康障碍。
Srinivas说,当个人开始过度依赖AI回应时,尤其是在需要更多动手解决方案和具有同理心、诊断清晰度及实时危机管理技能的另一个人参与的复杂或高风险情况下,就会产生担忧。“ChatGPT不了解完整背景,像痛苦、创伤和愤怒这样的情绪往往无法通过文本良好传达。AI在形成治疗联盟方面有其局限性,并且提供的责任感有限。因此,虽然建议表面看起来有帮助,但它可能会削弱或忽略潜在创伤、细微行为,甚至强化认知扭曲,”她说道。
迪拜的临床心理学家和临床神经心理学家Dr Rebecca Steingiesser表示,这个问题变得越来越普遍。“在我的实践中,我现在听到很多关于这个的情况,我的客户使用AI来帮助自己组织目标和做出重要的人生决定,例如,”她说。
“很明显,AI已经开始重塑治疗和心理健康支持的格局。我们看到出现了提供心理教育、症状检查、日记提示、情绪跟踪,甚至是基本认知行为干预的AI驱动工具。这些通常是我会在会谈中以纸质形式分享的内容,”她补充道。
她说,虽然这些工具可以作为治疗的有益辅助,特别是在监测进展或在两次疗程之间提供即时、低强度的支持时,它们并不能替代治疗中细致入微、关系导向和高度个性化的工作。
“我还看到个人用它来探讨他们的经历是否与某些诊断一致,但这伴随着严重风险,特别是如果他们在没有咨询精神科医生的情况下基于这些信息做出有关药物的决定,”她补充道。
拥有25年经验的迪拜The Hundred Wellness Centre心理学家Devika Mankani见过一些患者在使用AI后才转投专业人士所带来的后果。
“我见过一些客户在接受数月的AI工具依赖后来做治疗。有一个案例,一位女性认为她的婚姻‘有毒’,因为ChatGPT反复确认她的挫败感而没有背景或挑战。她后来承认她所需要的不是被推动离开,而是探索自身模式的安全空间,”她说。“另一个案例中,一名具有自恋特质的男子利用AI验证他关于他人总是有过错的信念,强化了他的夸大并避免自我反思。”
她说,尽管这种互动当时可能感觉像是治疗,但并不总是基于临床评估、监督或问责。
Srinivas解释说,AI模型基于广义数据训练,不能替代临床判断。“还有一种风险是对一个无法提供调适人类响应的系统产生情感依赖,这是治疗愈合的关键部分,”她警告说。
她也亲眼目睹了那些依赖该技术的人所面临的令人担忧的后果。
“我有客户提到他们向ChatGPT咨询他们的伴侣是否有自恋人格或是否患有注意力缺陷多动障碍(ADHD),通常基于一份特质清单而没有适当评估。在一个案例中,一个孩子完全退出了现实世界的社交互动,经常通过应用程序表达她的思想和感情。当被问及时,她说:‘ChatGPT是我唯一的朋友。’这是一个无意中验证了歪曲叙述的案例,因为缺乏治疗洞察力。”
在全球范围内,寻求治疗的羞耻感仍然是一个阻碍因素。根据2022年在Springer Nature上发表的研究《阿联酋居民对心理健康问题的态度》,研究人员指出:“在阿联酋,心理健康问题仍然受到污名化,可能是由于文化原因。”
当然,这种态度自那时起已经发生了变化,阿联酋政府在去污名化心理健康护理方面取得了进展。
即便如此,对一些人来说,与AI互动比与真人互动更容易。Dr Steingiesser说,不仅年轻人和青少年更常使用AI,因为他们已经习惯于数字平台并且对尝试技术持开放态度,而且被视为不像现实生活中的治疗师那样令人生畏或评判性强。
“此外,我也看到忙碌的专业人士在获得治疗延迟或受限时(由于等待名单过长或工作安排繁忙)使用AI来管理压力或倦怠的情况增加,”她补充道。
她同意在使用AI时上下文是关键。听取缺乏复杂人性拼图关键部分的AI回答,尤其对于那些做出重大人生决策如结束关系、转换职业或自我诊断心理健康状况的人来说,可能会带来灾难。
“也非常清楚的是,AI无法像训练有素的专业人士那样检测出危害风险的红旗,比如如何一个人呈现出来,他们的能量、举止。许多微妙的指标永远不会被捕捉到,”她在解释为什么在线治疗不适合高风险客户时说道。
读懂言外之意
“误诊、低估痛苦或强化有害思维模式是非常真实的担忧,我总是告诫我的客户不要过分依赖它,”她解释道。
令人震惊的是,本月,在OpenAI官方播客的第一集中,OpenAI首席执行官Sam Altman表示,他对人们如此信任ChatGPT感到惊讶:“人们对ChatGPT的信任度非常高,这很有趣,因为AI会产生幻觉。它应该是你不太信任的技术。”
Srinivas说,这一现象揭示了在世界许多地方获取适当心理健康服务的困难程度。“转向AI并非总是出于偏好,对一些难以获取或负担不起心理健康服务的人来说,这可能是唯一的选择,”她说。
“政策制定者需要优先考虑社区心理健康资金,让保险覆盖可用,并将心理健康纳入初级保健。如果不解决使服务可及性和可用性的这一差距,我们只会增加个体不得不诉诸潜在有害和不充分的替代方案的风险。”
Mankani对此表示同意:“这一趋势不会消失。我们的责任是建设一个人类繁荣发展的未来,而不是取代人类关怀的技术。”
(全文结束)


