聊天机器人在对话能力方面日益精进——但它们能在心理治疗环境中提供有意义的支持吗?南加州大学的一项新研究表明,像ChatGPT这样的大型语言模型(LLMs)在人类交流的细微之处仍然存在不足。
这项研究由南加州大学计算机科学博士生Mina Kian和Kaleen Shrestha共同主导,指导教授为南加州大学互动实验室的著名机器人专家Maja Matarić。研究结果表明,LLMs在生成高质量的治疗性回应方面仍然落后于人类。
研究发现,LLMs在语言“同步”(entrainment)方面表现不如专家甚至非专家的人类。所谓“同步”,是指互动个体之间的响应性交流,这是治疗师用来提升与来访者建立融洽关系的重要手段,而这种融洽关系已被证明有助于提高积极的治疗效果。
此外,还有七位南加州大学的计算机科学研究人员以及安嫩伯格传播与新闻学院的博士生Katrin Fischer共同参与了这项研究。
支持,而非替代
尽管LLMs目前尚未广泛用于临床认知行为疗法(CBT),但越来越多的研究提出将其用于心理健康护理。然而,一些研究也指出了重大风险,包括种族和性别偏见。
“我们看到一种令人担忧的说法,认为LLMs可以取代治疗师,”Kian表示。“治疗师需要经过多年的学业和临床培训才能胜任面对来访者的工作,我非常担心有人提出LLM技术可以轻易取代他们。”
Kian本人的研究重点是社会辅助机器人(SARS)在心理健康护理中的应用——不是为了取代治疗师,而是为了支持并扩大他们的服务范围。
研究团队的论文《使用语言同步评估大型语言模型在认知行为疗法中的应用》探讨了领先的LLM(ChatGPT 3.5-turbo)在CBT风格的家庭练习中的表现。
参与者——26名大学生——登录由LLM驱动的聊天平台,选择认知重构或应对策略练习,这些练习通过提示引导他们处理和管理压力。
研究人员分析了这些互动的记录,发现更强的语言同步性与更多的自我披露和参与度相关——这是有效治疗支持的标志。但与人类治疗师和Reddit上的同伴支持者相比,LLM的同步水平始终较低。
“自然语言处理(NLP)社区正在努力对大型语言模型在各种敏感领域的应用进行细致验证,”Shrestha表示。“我们已经超越了仅仅追求类人语言生成的阶段,因为这些技术正日益影响每个人的生活。随着我们探索大型预训练LLM的复杂性,应鼓励并分享像这样的特定人群案例研究。”
Kian和她的同事表示,尽管LLMs可以辅助指导家庭练习,但它们无法替代人类临床医生。
“我希望能看到更多关于LLMs在治疗应用中的表现评估,探索除CBT之外的治疗风格,也许可以考虑其在动机性访谈或辩证行为疗法(DBT)中的应用,”Kian说。“我还希望看到它们在其他重要治疗指标上的评估。”
Kian计划继续她的研究,评估SAR指导的认知行为疗法家庭练习是否能够支持患有广泛性焦虑障碍的个体。“我希望这项研究最终能够用于扩展治疗师可用的家庭护理技术,”她说。
更多信息:Using Linguistic Entrainment to Evaluate Large Language Models for Use in Cognitive Behavioral Therapy. aclanthology.org/2025.findings-naacl.430.pdf
来源:南加州大学
【全文结束】


