达特茅斯学院的研究人员认为,人工智能可以提供可靠的心理治疗,从而将他们的工作与市场上未经验证且有时可疑的心理健康应用程序区分开来。
他们的应用程序Therabot旨在解决心理健康专业人员严重短缺的问题。
据达特茅斯学院数据科学和精神病学助理教授尼克·雅各布森(Nick Jacobson)称,即使将目前的治疗师数量增加十倍,也无法满足需求。
“我们需要一些不同的东西来满足这一巨大的需求,”雅各布森在接受法新社采访时说。
达特茅斯团队最近发表了一项临床研究,证明了Therabot在帮助焦虑、抑郁和饮食障碍患者方面的有效性。
一项新的试验计划将Therabot的结果与传统疗法进行比较。
医学界似乎对这种创新持开放态度。
美国心理学会(APA)医疗创新高级主管瓦伊尔·赖特(Vaile Wright)描述了“一个未来,在那里你将拥有一个基于科学的AI生成的聊天机器人,由专家共同创建,旨在解决心理健康问题。”
赖特指出,这些应用程序“有很大的潜力,特别是如果它们负责任且合乎道德地进行的话”,但她也表达了对年轻用户可能受到伤害的担忧。
雅各布森的团队迄今为止已经投入近六年的时间来开发Therabot,其主要目标是安全性和有效性。
精神科医生兼项目共同负责人迈克尔·海因兹(Michael Heinz)认为,急于盈利会损害安全性。
达特茅斯团队优先考虑了解他们的数字治疗师如何工作并建立信任。
他们还在考虑创建一个与Therabot相关的非营利实体,以使那些无法负担传统面对面治疗的人能够获得数字治疗。
由于开发者的谨慎态度,Therabot有可能在一个充斥着未经测试的应用程序的市场中脱颖而出,这些应用程序声称可以解决孤独、悲伤等问题。
据赖特称,许多应用程序似乎更多是为了吸引注意力和产生收入,而不是改善心理健康。
这些模式通过告诉人们他们想听的内容来保持人们的参与度,但年轻用户往往缺乏辨别自己被操纵的能力。
美国精神病学协会心理健康技术委员会主席达琳·金(Darlene King)承认AI在应对心理健康挑战方面的潜力,但也强调需要更多信息才能确定真正的益处和风险。
“仍然有很多问题,”金指出。
为了最小化意外结果,Therabot团队不仅从治疗记录和培训视频中挖掘数据来为其AI应用程序提供动力,还手动创建了模拟的患者-护理者对话。
虽然美国食品药品监督管理局(FDA)理论上负责监管在线心理健康治疗,但它并不认证医疗器械或AI应用程序。
相反,“FDA可以在审查适当的上市前提交材料后授权其市场营销,”一位机构发言人表示。
FDA承认“数字心理健康疗法有潜力提高患者对行为疗法的可及性。”
Earkick公司的首席执行官赫伯特·贝(Herbert Bay)为其创业公司的AI治疗师Panda辩护,称其“非常安全”。
贝表示,Earkick正在对其数字治疗师进行临床研究,该治疗师可以检测情绪危机迹象或自杀念头,并发送求助警报。
“发生在Character.AI上的事情不会在我们这里发生,”贝说,指的是佛罗里达州的一起案件,一名母亲声称聊天机器人的关系导致她14岁的儿子自杀。
贝认为,目前AI更适合日常心理健康支持,而不适合重大崩溃的情况。
“凌晨两点打电话给你的治疗师是不可能的,”贝指出,“但治疗聊天机器人始终可用。”
一位名叫达伦(他拒绝提供姓氏)的用户发现ChatGPT在管理他的创伤后应激障碍方面很有帮助,尽管OpenAI助手并不是专门为心理健康设计的。
“我觉得它对我有效,”他说。
“我会推荐给那些患有焦虑症并处于困境中的人。”
(全文结束)


