当比较由心理治疗师撰写的回复与由ChatGPT生成的回复时,后者通常被评为更高,这是根据2025年2月12日发表在开放获取期刊《PLOS Mental Health》上的一项研究得出的结论。该研究由俄亥俄州立大学的H. Dorian Hatch及其同事进行,Hatch同时也是Hatch Data and Mental Health的联合创始人。
机器能否成为治疗师的问题近年来受到了更多关注,特别是考虑到与生成式人工智能(AI)合作的一些优势。尽管先前的研究发现,人们很难区分机器和人类的回答,但最近的研究表明,AI可以写出富有同理心的内容,并且这些内容被心理健康专业人士和志愿使用者高度评价,甚至常常优于专业人士编写的内容。
在这项涉及超过800名参与者的最新研究中,Hatch及其同事展示了虽然语言模式存在差异,但在面对18个夫妻治疗案例时,参与者很少能分辨出回复是由ChatGPT还是治疗师撰写的。这一结果呼应了艾伦·图灵的预测,即人类将无法区分机器和人类书写的回应。此外,ChatGPT生成的回复通常在核心心理治疗指导原则方面得分更高。
进一步分析显示,ChatGPT生成的回复通常比治疗师撰写的更长。在控制长度后,ChatGPT仍然比治疗师使用更多的名词和形容词。由于名词可用于描述人、地点和事物,而形容词可提供更多信息,这可能意味着ChatGPT在情境化方面更为广泛。更广泛的情境化可能导致受访者对ChatGPT的回复在治疗的共同因素(所有治疗方法中为了达到预期效果而共有的成分)上的评分更高。
根据作者的说法,这些结果可能是早期迹象,表明ChatGPT有可能改善心理治疗过程。特别是,这项工作可能会导致开发不同的测试和创建心理治疗干预的方法。鉴于越来越多的证据表明生成式AI在治疗环境中是有用的,并且很可能很快会被整合到治疗环境中,作者呼吁心理健康专家提高技术素养,以确保AI模型由负责任的专业人员精心训练和监督,从而提高护理的质量和可及性。
作者补充道:“自ELIZA发明近60年以来,研究人员一直在争论AI是否可以扮演治疗师的角色。虽然仍有许多重要问题悬而未决,但我们的研究结果表明答案可能是肯定的。我们希望我们的工作能够激励公众和心理从业者在AI列车离站之前,就AI与心理健康治疗的整合提出重要的伦理、可行性和实用性问题。”
(全文结束)


