西达斯西奈医学中心(Cedars-Sinai Medical Center)的医生们开发了一款名为Xaia的人工智能“机器人”心理治疗师。
41岁的洛杉矶居民Misty Williams时不时会前往西达斯西奈医学中心急诊科接受镰状细胞贫血症引发的剧烈疼痛治疗。这种疾病会导致红细胞变硬并阻塞血流。在使用止痛药和补水治疗后,她提出了一个不同寻常的请求:戴上虚拟现实头盔,与一个人工智能驱动的聊天机器人进行对话。
戴上头盔后,Williams置身于一个虚拟花园中,四周有蝴蝶飞舞。一个拟人化的机器人以柔和的女性声音向她打招呼:
“你好,欢迎。我叫Xaia,我是你的心理健康伙伴。我能帮你什么吗?”
经过一次会话后,Williams的疼痛减轻,心情也更加平静。
“从心理和身体上,我都感觉更安详了。”Williams说。
Xaia(发音为ZAI-uh)只是人工智能技术在数字健康领域迅猛发展的一个缩影。根据数字健康咨询公司Rock Health的报告,2024年,使用人工智能的数字健康初创企业获得了约39亿美元的融资,占该行业总融资额的38%。其中心理健康是获得融资最多的临床领域,达到14亿美元。
洛杉矶的主要医疗机构也在积极拥抱这一趋势。UCLA Health的首席人工智能官Paul Lukac表示,他们正在利用AI帮助医生更快识别中风、减少再入院率,并通过自动记录医疗笔记来增加与患者相处的时间。
南加州大学凯克医学院(Keck Medicine of USC)计划向员工提供一款商业AI聊天工具,用于压力管理,这是该学院首席心理健康与福祉官Steven Siegel博士透露的信息。
Xaia是由西达斯西奈医学中心的Omer Liran博士设计和编程的,Brennan Spiegel博士和临床心理学家Robert Chernoff也提供了研究支持和治疗建议。该项目由该医学中心的技术风投部门协作完成。
VRx Health是一家由Liran创立的营利性公司,拥有Xaia的独家商业推广许可。西达斯西奈医学中心和几位私人投资者持有该公司的股份。
Liran表示,Xaia的设计初衷是作为心理治疗师服务的补充,而非替代。目前美国正面临心理治疗师严重短缺的问题。
“即使有人每周需要见一次治疗师,他们可能一个月才能见一次。”他说。
Xaia应用软件从数百段治疗对话记录中学习,这些记录包括真实治疗过程和由专家模拟生成的对话内容。例如,如果用户告诉Xaia他们正在应对新的癌症诊断,机器人可能会回应:“这对你来说一定非常艰难。”然后询问这对他们的情绪产生了什么影响,以及在情绪失控时通常会做些什么。
“在事情如此沉重的情况下保持积极心态一定需要很大的能量。”聊天机器人说,“当你发现自己又被拉回那些困难的想法时,通常接下来会发生什么?你会选择退缩,还是向他人寻求支持?”
Spiegel表示,迄今为止,Xaia已在西达斯西奈医学中心的多个研究项目中被约300名患者使用,包括慢性疼痛、酒精使用障碍和肠易激综合征患者。
许多慢性病患者同时面临焦虑或抑郁问题。身体和情绪症状相互影响,像Xaia这样的工具旨在同时帮助缓解这两方面的问题。
目前,Xaia尚未被纳入保险覆盖范围,但已有针对虚拟现实疗法和数字健康服务的收费代码,梅奥诊所等其他医院也开始使用这些代码。VRx公司首席执行官Gabe Zetter表示,该公司已与梅奥诊所达成协议,将在其机构部署Xaia。
Xaia并不是唯一一款此类应用。斯坦福大学的心理学家Alison Darcy开发的Woebot是一款早期聊天机器人,它基于认知行为疗法的脚本对话来支持焦虑和抑郁用户。
尽管该应用曾拥有150万用户,但公司于2024年7月关闭了该应用。Darcy表示,公司现在专注于使用大型语言模型开发新工具,因为人工智能的发展速度已超过美国食品药品监督管理局(FDA)等监管机构的跟进速度。
近年来,一些情绪支持聊天机器人被指责加剧了用户的痛苦。例如,2024年一名佛罗里达州青少年在与一个聊天机器人长时间对话后自杀。
美国精神分析协会人工智能委员会联合主席兼创始人Todd Essig表示,这些事件突显了情感响应型AI工具的风险。
“即使AI做出了最富有爱心和同理心的回应,它也不会关心你是开车去商店还是开车冲下悬崖。”Essig说。
Essig表示,AI程序学习模仿人类回应,因此构建者有责任设定明确的界限,确保它们不会造成伤害。
伯克利公共卫生学院生物伦理与医学人文学科教授Jodi Halpern认为,如果在临床监督下构建并使用Xaia这样的工具,它可以支持真正的治疗进展,其作用更像数字日记——这是几十年前医生给患者纸质练习册的一种现代变体。
但她指出,许多未经过临床监督的情绪支持聊天机器人旨在模仿亲密感并建立情感联系。
“人们可能会将应用程序视为另一个存在。”Halpern说,“但实际上它并没有提供与其他人类互动的真实体验,而这种体验对于培养健康、相互理解的好奇心至关重要,这是人们参与复杂人际关系所必需的。”
Halpern强调,经过临床批准的心理健康工具与那些没有监管的工具之间存在显著差异。她和其他人正在支持加州参议员Steve Padilla(D-Chula Vista)提出的一项法案,该法案要求开发心理健康聊天机器人或应用的公司披露其工具是否经过临床验证、是否受FDA监管,或是否依赖生成式AI。
Liran表示,他和合作伙伴意识到AI的局限性,并已设置了防护机制,以防止聊天机器人说出任何有害或不适当的内容。例如,AI的一个模块生成回应,另一个模块则立即进行双重检查,以确保回应在发送给用户前是安全的。
“我们并没有直接向公众开放。”Liran指出,目前手机和桌面设备上的引导治疗版本仅能通过持证临床医生获取,西达斯西奈医学中心正在多个研究项目中测试Xaia。“我们正努力非常谨慎。”
在一项14人的研究中,使用Xaia的轻度或中度焦虑和抑郁患者敞开心扉,谈到了各种话题,包括一位已故的母亲和对被裁员的恐惧。对于一名因分手而持续夜间盗汗的患者,Xaia询问了这段关系中未解决的问题以及它对其造成的影响。
虽然一些患者仍然更喜欢人类治疗师的细腻和反应能力,但医学文献显示,患者对非人类治疗师的接受度正在提高。
今年2月发表在《PLOS心理健康》上的一项研究中,研究人员让参与者比较持证治疗师和ChatGPT生成的回应。
结果不仅许多参与者难以分辨两者之间的区别,他们还一致认为AI的回复更具同理心、文化敏感性和情感吸引力。
Xaia的创造者们认为,该工具是对患者与治疗师关系的延伸。它适用于深夜或治疗间隔期间需要心理健康支持的情况。
“我们仍然需要治疗师——人类——来面对面地与他人讨论敏感话题。”Spiegel说。
同时,他表示,“否认AI的普及并不现实,因为AI已经无处不在。很快,我们甚至在刷牙时也会用到AI。”
这篇文章最初发表在《洛杉矶时报》。
【全文结束】


