人工智能对心理健康的影响AI’s Impact on Mental Health – Communications of the ACM

环球医讯 / AI与医疗健康来源:cacm.acm.org美国 - 英语2025-11-16 01:00:27 - 阅读时长10分钟 - 4654字
本文深入探讨了人工智能在心理健康领域的双重作用,指出聊天机器人虽能提供即时情感支持和轻度干预(如认知行为疗法技巧),但存在误诊风险、隐私泄露隐患及延误专业治疗等严重问题;专家强调,通用人工智能平台无法替代人类治疗师的临床直觉与情感连接,尤其在处理自杀倾向等危机时可能造成致命后果,呼吁用户将AI工具视为辅助手段而非替代方案,并在出现深度心理问题时及时寻求真实人际支持,同时监管机构需加强立法保障数据安全与服务可靠性。
人工智能心理健康聊天机器人治疗人类连接风险循证方法认知行为疗法隐私局限情感支持临床验证误诊数据泄露自我反思警示故事
人工智能对心理健康的影响

瓦伊巴夫·卡卡尔(Vaibhav Kakkar)曾测试一款治疗聊天机器人以应对现实生活中的困境。“它提供了结构化的认知行为提示,帮助我重构思维,”这位数字网络解决方案公司(Digital Web Solutions)的首席执行官回忆道。“令人印象深刻——但当我需要更深入的指导时,它却遇到了瓶颈。”

卡卡尔幸运地意识到何时该寻求人类治疗师的专业帮助。阿尔·诺瓦茨基(Al Nowatzki)也是如此,当他使用的诺米平台(Nomi)上的AI女友“艾琳”(Erin)指示他自杀并提供详细方法时,他明白为时已晚。今年早些时候,诺瓦茨基向《麻省理工科技评论》讲述了这段经历,并分享了截图及后续通信,表明诺米不愿“审查”机器人的“语言和思想”。

在与艾琳进行令人不安的交流数周后,另一个诺米聊天机器人也告诉诺瓦茨基自杀,甚至发送了提醒消息。据文章报道,这并非孤立事件——据报道,其他多人称诺米的机器人在公司的Discord频道中提及自杀,最早可追溯至2023年。

人们为何转向人工智能

毫无疑问,人工智能(AI)有潜力改善心理健康护理的获取。“可以想象一个世界,AI作为心理健康的‘前线’,为寻求帮助的个人提供资源和服务的集散中心,”2023年文章《人工智能对人群心理健康的影响潜力》的作者写道。

文章指出,通过聊天机器人以数字方式提供的针对性干预“可以帮助减轻精神疾病的群体负担,特别是在难以触及的人群和情境中,例如通过分步护理方法,旨在帮助在自然灾害后风险最高的群体。”

除了诺米,越来越多的人工智能平台被人们用来创建聊天机器人,承担包括临时治疗师在内的多种角色。然而,尽管AI可以辅助心理健康管理,但它无法替代人类直觉。受过训练的治疗师能观察到AI无法捕捉的细微差别,如肢体语言、语气变化和未言明的情绪。聊天机器人可能有帮助,但心理健康专家强调,它们绝不能完全取代人类体验。

话虽如此,这些主流聊天机器人经常被用于治疗目的,而不是专为心理健康管理设计的聊天机器人。业内人士表示,原因众多:当人们尚未准备好联系治疗师时,它们提供情感支持;它们匿名、易用、便捷、随时可用、安全、无评判、经济实惠且快速。这些通用聊天机器人通过提供安慰、认可和安全空间,帮助用户表达自我——所有这些都没有传统治疗环境中有时存在的污名。

“与治疗师交谈可能令人畏惧、昂贵或难以获取,有时你需要在那一刻有人——或某物——倾听,”持证临床社会工作者、启示健康中心(Epiphany Wellness)执行董事斯蒂芬妮·刘易斯(Stephanie Lewis)表示。

刘易斯说,聊天机器人允许人们发泄、处理情绪并获取建议,而不必担心被评判或误解。“我还看到,那些与焦虑、社交不适或信任问题作斗争的人有时更容易向聊天机器人敞开心扉,而不是向真人。”

用户“通常寻找一个安全空间来表达情绪、获得保证或找到快速的压力管理策略,”纽约市中城TMS医疗中心(Mid City TMS)医学总监布赖恩·布鲁诺博士(Dr. Bryan Bruno)补充道。

刘易斯表示同意,称主流聊天机器人模仿同理心,甚至提供有用的应对工具,但它们并不真正理解你。“它们无法捕捉你的语气、肢体语言或隐藏在话语下的潜在情绪。治疗不仅仅是提供建议;它涉及字里行间阅读,帮助某人串联线索,并知道何时温和地推动他们进行更深层次的自我反思,”她观察到。“无论技术多么先进,没有聊天机器人能替代这种人类连接。”

布鲁诺也表达了同样的观点,称“这些平台缺乏解决复杂心理健康需求的临床基础。”

通用人工智能与临床心理健康平台对比

纽约揭示心理健康咨询(Uncover Mental Health Counseling)创始人兼临床主任克里斯蒂·谢(Kristie Tse)表示,在专为治疗目的设计的聊天机器人与未针对此用途优化的标准聊天机器人之间,存在“效果上的显著差异”。

谢指出,聊天机器人的有效性可能取决于其训练数据的来源。治疗专用聊天机器人可能利用美国心理学会等官方科学资源的数据,而基础聊天机器人可能仅搜索互联网。

“专为治疗设计的聊天机器人通常由心理健康专业人士参与开发,并整合循证方法,如认知行为疗法技术,”谢解释道。“它们能引导用户反思并采取具体行动。”

刘易斯同意,某些治疗聊天机器人确实设计了真实疗法技巧,如认知行为疗法(CBT),可帮助管理压力或焦虑。“它们能指导用户进行呼吸练习、正念技巧和日记提示,这些都是很棒的工具,”她说。

包括沃博特(Woebot)和威萨(Wysa)在内的治疗专用聊天机器人,临床报告显示其在轻度心理健康问题上效果更佳,因为它们被编程用于识别症状并引导用户进行结构化干预。

相比之下,ChatGPT或雷普利卡(Replika)等聊天机器人虽提供情感支持,但可能给出错误建议、忽略危机信号且缺乏明确指导。尽管它们可能带来安慰,临床医生表示它们不能替代真实帮助。

尽管如此,主流聊天机器人仍广泛用于心理健康指导。据Precedent Research称,2024年全球心理健康与治疗聊天机器人市场规模达13.7亿美元,预计到2034年将增至约23.8亿美元,但未具体说明聊天机器人类型。

专家称主流聊天机器人存在风险

中城TMS医疗中心的布鲁诺认为,非治疗类聊天机器人的“风险相当大”。例如,它们可能无意中正常化有害行为、未能识别紧急危机或提供误导性建议。“隐私是另一大担忧,因为许多平台不受医疗保密标准约束,”他指出。“最关键的是,依赖这些工具可能延误循证治疗的获取,这对重度抑郁症等疾病尤其危险。”

启示健康中心的刘易斯表示,即使最佳治疗聊天机器人也有局限,因为它们并不了解你。“它们无法察觉你语气的变化、停止回应或思想转向危险境地,”她说。“如果有人正经历深度情感痛苦、创伤或自杀念头,聊天机器人无法像治疗师那样介入。这最令我担忧;人们可能在需要人类帮助时过度依赖AI。”

2024年美国国立卫生研究院(NIH)的一项研究发现,在使用AI获取心理健康支持的人群中,存在因AI潜在错误导致的误诊或错误信息风险。此外,关于AI系统中 empathy 的作用存在疑问,加之心理健康信息的敏感性,数据泄露或滥用风险令人忧虑。

报告指出:“非代表性训练数据中固有的偏见可能导致诊断或治疗中的不公平问题,而AI系统往往不透明的决策过程引发对复杂决策如何做出的担忧。这些潜在风险可能导致不良后果,目前关于这些系统的有害影响信息有限。因此,保障用户免受此类有害结果的立法严重不足。”

同一研究显示,36%的心理健康专业人士认为AI的益处将超过风险,25%认为风险将超过益处,其余人则不确定。

“许多人向这些聊天机器人分享个人脆弱信息,但他们知道这些信息去向何方吗?”刘易斯指出。“AI模型依赖海量数据集;即使公司声称保护用户数据,风险始终存在。”

她补充说,与人类治疗师交谈时,保密受法律保护。“而AI?并非如此。”

她还认为,人们对AI寻求安慰的依赖过度,可能适得其反。“如果你不断转向聊天机器人而非联系真人,可能是在强化孤独而非缓解问题。治疗关乎连接——不仅与治疗师,还与自己和周围的人,”刘易斯说。“聊天机器人可能感觉安全,但无法替代真正有意义的人际关系。”

一个警示故事

敏锐人工智能公司(Acuity AI)首席执行官杰尔·珀迪萨特(Ger Perdisatt)从企业级临床聊天机器人的开发中吸取了宝贵教训。他关闭了此前创立的卢阿健康(Lua Health)心理健康初创公司,该公司曾利用自然语言处理(NLP)技术在职场通信中检测早期心理健康问题的语言标记。

“我们获得了心理学家的临床验证、坚实的技术方案,以及我们认为完美的时机,”珀迪萨特回忆道,该应用曾嵌入微软Teams和Zoom等视频会议平台。“但市场给出了不同答案。”

卢阿健康官员痛苦地发现,“人们并非真正需要经过临床验证的复杂AI来支持心理健康,”珀迪萨特说。“通过我在微软领导AI计划的经历,以及后来在卢阿的切身体会,我们发现用户主要寻求更简单的东西:宣泄。他们只需要有人——或某物——倾听。”

珀迪萨特表示,卢阿健康揭示的“令人不安的真相”是AI的复杂性几乎无关紧要。“用户向基础聊天机器人倾诉心声,并非因为它们特别聪明或具有治疗价值,而是因为它们始终存在、永远耐心且毫无评判。”

尽管卢阿基于严谨的临床验证和高级NLP构建,公司官员仍目睹用户转向主流聊天机器人寻求心理健康支持。“这有点像看着人们选择向友善的陌生人倾诉,而非训练有素的治疗师;并非因为更好,而是因为它存在且感觉安全。”

珀迪萨特在意识到组织宣称与实际行动之间存在“脱节”后决定终止该应用。他解释道,问题归结为公司要求以极低成本获取高质量临床信息。

人工智能视觉化:另一种方法

对于希望借助AI指导心理健康的用户,采用视觉化技术(即想象未来情境如同正在发生的心理过程)是另一种途径。“AI视觉化是认知行为疗法中用于帮助人们准备应对挑战性情境的技术;类似于角色扮演,”场景公司(Scenario)临床科学副总裁、持证临床心理学家马特·斯库尔特(Matt Scult)解释道。“这是练习技能以应对你一直回避或焦虑的即将发生情境的绝佳方式。”

场景公司利用AI根据用户输入生成脚本对话,供用户聆听或阅读。斯库尔特强调,该应用并非设计为临床工具,而是用于日常压力情境。公司运营一年多以来,已获得超过7,000次下载和16,300个创建情境。

斯库尔特表示,所有用户情境均为私有,除非用户选择通过应用内生成的链接分享特定视觉化内容,否则不会公开。“我们的隐私政策说明团队出于产品开发目的可访问数据,并解释用户输入(而非账户信息)会发送至外部大型语言模型合作伙伴以创建视觉化内容。”

值得思考的问题

心理健康专业人士认为,最佳方法是平衡利用聊天机器人的灵活性与 empathy,同时结合临床最佳实践和受监控的对话。人们应了解聊天机器人的局限性,并在适当时寻求专业帮助。

“将AI作为自我反思工具是一回事,但如果你寻求真正的疗愈、成长和改变,没有什么能比得上与真正关心你福祉的专业人士的对话,”刘易斯表示。

她强调,心理健康是个人化的,需要真实的人类连接。“无论AI多么先进,它永远无法替代被另一个人看见和理解的感觉,”刘易斯说。“如果你需要支持,无论是治疗还是联系朋友,都不要害怕迈出这一步。你值得获得真正的关怀,而非自动化回复。”

延伸阅读

  • 克罗斯(Cross, S.)、贝尔(Bell, I.)、尼古拉斯(Nicholas, J.)、瓦伦丁(Valentine, L.)、曼格尔施塔特(Mangelsdorf, S.)、贝克(Baker, S.)、蒂托夫(Titov, N.)和阿尔瓦雷斯-希门尼斯(Alvarez-Jimenez, M.),《人工智能在心理健康护理中的应用:社区与心理健康专业人士调查》,2024年10月,《JMIR心理健康》
  • 艾特曼(Ettman, C.K.)和加莱亚(Galea, S.),《人工智能对人群心理健康的影响潜力》,美国国立卫生研究院,2023年11月
  • 辛格(Singh, A.)、埃特沙姆(Ehtesham, A.)、马哈茂德(Mahmud, S.)和金(Kim, J.H.),《通过LangChain革新心理健康护理:大型语言模型之旅》,康奈尔大学,2024年2月

【全文结束】

大健康
大健康