达特茅斯学院的研究人员认为,人工智能可以提供可靠的心理治疗,这与目前市场上充斥着未经验证且有时令人怀疑的心理健康应用程序有所不同。
他们的应用程序Therabot旨在解决心理健康专业人员严重短缺的问题。据达特茅斯学院数据科学和精神病学助理教授尼克·雅各布森(Nick Jacobson)称,即使将现有治疗师的数量增加十倍,也难以满足需求。“我们需要一些不同的方法来满足这一巨大的需求。”雅各布森在接受法新社采访时说。
达特茅斯团队最近发表了一项临床研究,证明Therabot在帮助患有焦虑、抑郁和饮食障碍的人方面是有效的。他们还计划进行一项新的试验,将Therabot的结果与传统疗法进行比较。
医学界似乎对此类创新持开放态度。美国心理学会(APA)医疗创新高级主任瓦伊尔·赖特(Vaile Wright)描述了“一个未来,在那里你将拥有一个基于科学、由专家共同创建并专门用于解决心理健康问题的AI生成的聊天机器人”。赖特指出,这些应用程序“有很大的潜力,特别是如果它们负责任地和道德地进行开发”,但她也表达了对年轻用户可能受到伤害的担忧。
雅各布森的团队迄今为止已经投入了近六年的时间来开发Therabot,安全性和有效性是他们的首要目标。项目联合负责人迈克尔·海因兹(Michael Heinz)认为,急于盈利会损害安全性。达特茅斯团队优先考虑的是理解他们的数字治疗师如何工作,并建立信任。
他们还在考虑创建一个与Therabot相关的非营利组织,以使那些无法负担传统面对面治疗的人能够获得数字治疗。由于开发者的谨慎态度,Therabot有可能在一个充斥着未经测试的应用程序的市场中脱颖而出,这些应用程序声称可以解决孤独、悲伤和其他问题。
根据赖特的说法,许多应用程序似乎设计得更像是为了吸引注意力和产生收入,而不是改善心理健康。这样的模型通过告诉人们他们想听的话来保持用户的参与度,但年轻的用户往往缺乏足够的洞察力来意识到自己正在被操纵。
美国精神病学协会心理健康技术委员会主席达琳·金(Darlene King)承认AI在解决心理健康挑战方面的潜力,但强调需要更多信息才能确定真正的益处和风险。“还有很多问题。”金指出。
为了尽量减少意外结果,Therabot团队不仅从治疗记录和培训视频中挖掘数据来为其AI应用程序提供动力,还手动创建了模拟患者-护理者对话。
虽然理论上美国食品药品监督管理局(FDA)负责监管在线心理健康治疗,但它并不认证医疗器械或AI应用程序。相反,“FDA可能会在审查适当的上市前提交材料后授权其营销。”一位机构发言人表示。FDA承认“数字心理健康疗法有潜力提高患者获得行为疗法的机会。”
Earkick公司的首席执行官赫伯特·贝(Herbert Bay)为其初创公司的AI治疗师Panda辩护,称其“非常安全”。贝表示,Earkick正在进行对其数字治疗师的临床研究,该治疗师可以检测到情绪危机迹象或自杀念头,并发送求助警报。“发生在Character.AI身上的事情不会发生在我们身上。”贝说,他指的是佛罗里达州的一个案例,一名母亲声称与聊天机器人的关系导致她14岁的儿子自杀。
贝认为,目前AI更适合日常心理健康支持,而不是处理重大的精神崩溃。“凌晨两点打电话给你的治疗师是不可能的,”但一个治疗聊天机器人始终可用,贝指出。
一位名叫达伦的用户(他拒绝提供姓氏)发现ChatGPT在他管理创伤后应激障碍方面很有帮助,尽管OpenAI助手并不是专门为心理健康设计的。“我觉得它对我有效。”他说。“我会推荐给那些患有焦虑症并处于困境中的人。”
(全文结束)


