人工智能在心理治疗中的应用:使用率上升,担忧加剧AI in psychotherapy: Usage increases, concerns grow | heise online

环球医讯 / AI与医疗健康来源:www.heise.de德国 - 德语2025-12-25 18:45:49 - 阅读时长4分钟 - 1517字
美国心理学会年度调查显示,心理学家中使用人工智能工具的比例从2024年的29%显著跃升至2025年的56%,主要用于行政支持任务如撰写邮件、总结临床笔记和内容创作,而核心治疗任务应用率不足10%;92%的心理学家对AI使用表达担忧,数据隐私问题(67%)和算法偏见(63%)成为主要顾虑,柏林治疗平台报告进一步证实患者中52.4%已尝试AI进行心理健康管理,但强调AI应作为治疗补充而非替代,需强化知情同意机制与数据安全规范,避免技术失控导致医患关系疏离和隐私泄露风险。
人工智能心理治疗健康管理应用率担忧数据隐私算法偏见幻觉现象患者视角知情同意补充治疗决策责任
人工智能在心理治疗中的应用:使用率上升,担忧加剧

人工智能已正式进入心理治疗实践领域。然而,心理学家对人工智能越熟悉,对其潜在风险的认知也越深刻。美国心理学会(APA)年度"从业者脉搏调查"显示,十分之九的心理学家对人工智能的使用表示担忧。该调查于2025年9月对1700多名心理学家进行了问卷调研。

调查显示,去年56%的心理学家使用人工智能工具辅助工作,较2024年的29%显著上升。近三成心理学家(29%)甚至每月定期使用该技术。

研究指出,人工智能的接受度几乎完全集中于行政与支持性活动。受访者表示,该技术主要用于提升日常工作效能,而非接管核心治疗任务。最常见的应用场景包括:辅助撰写邮件等事务性工作(约52%)、总结临床笔记或专业文章(32%)、内容创作(33%)以及辅助记录(22%)。

仅极少数应用人工智能的心理学家将该技术用于敏感临床任务,例如诊断支持(8%)或作为患者聊天机器人助手(5%)。

熟悉度提升,担忧同步增长

约92%的受访心理学家表达了担忧。数据隐私泄露问题高居榜首(67%,较上年59%上升),其他所有担忧也呈上升趋势:对不可预测社会危害的恐惧(64%,较上年54%上升)和算法偏见问题(63%)。关于输出不准确(即所谓"幻觉"现象)的忧虑也从去年44%升至60%。

总部位于柏林的治疗平台"It's Complicated"发布的报告印证了类似发现。其调查显示,约半数治疗师(51.2%)尝试使用人工智能,主要应用于内容创作和研究摘要。他们的主要顾虑与APA受访者相似:人工智能工具准确性问题最为突出(约71%),其次是在治疗中可能削弱与患者的联结。约60%的治疗师担忧数据隐私泄露。一位治疗师指出,ChatGPT、Claude或Gemini等人工智能模型的设计初衷是以一切代价捕获并维持用户注意力,其行为不可预测且由少数难以监管的主体控制。

该平台还调研了患者视角。调查显示,超半数受访者(52.4%)已将人工智能用于心理健康管理,主要通过ChatGPT等通用聊天机器人实现。使用原因包括:治疗前准备、梳理思绪或表达困难情绪。人们将ChatGPT视为治疗师,主要源于人工智能作为"共鸣机器"的特殊效应。心理学家米哈尔·科辛斯基指出,现代语言模型通过分析文本模式发展出某种"心理理论"——即识别并镜像人类情绪、动机和意图的能力。尽管人工智能并不"感受"情绪,但它能以惊人精度计算人们在特定情境下的可能感受或想法,从而提升其作为对话伙伴的有效性。

与此同时,患者与专家担忧高度一致。他们最担心的是错误建议(82.4%)和数据隐私问题(73%)。调查显示,患者希望人工智能补充而非取代治疗。特别受欢迎的是支持治疗间隔期的工具,例如鼓励写日记或协助寻找合适治疗师的功能。

报告作者据此提出建议,强调人类应对决策负责。医疗界多数也持此观点,并持续辩论人工智能应用增加是否会导致自动化机制悄然渗透;在此背景下,"计算机家长主义"概念也曾被提及。

知情同意机制

此外,作者认为知情同意是重要工具。然而政策走向不同,例如电子病历的退出式解决方案。进一步的立法举措,如计划中的《医疗登记法》,巩固了未来将更多数据集(如遗传和健康数据)自动传输至健康研究数据中心的意图。

同样,"It's Complicated"平台创始人强调数据使用透明度的重要性——包括数据用途、方式和原因。参保人对自身数据流向健康研究数据中心的情况毫不知情,这一问题也屡遭批评。报告最后着重指出隐私与数据安全的紧迫性。

【全文结束】

大健康
大健康