随着人工智能(AI)越来越多地融入临床护理,关于患者如何看待其作用的问题仍然悬而未决。一项新的定性研究提供了对此问题的新见解,重点在于患者对基于人工智能的临床决策支持系统(AI-CDSS)的反应。该研究题为《对使用人工智能在医疗保健中的犹豫:一项关于患者对信任、责任和自主权的看法的定性研究》,于2025年发表在《数字健康》杂志上。
通过对德国三个焦点小组进行的18次深入患者访谈,研究探讨了患者对肾病学、外科手术和家庭护理中AI-CDSS应用的态度。它强调了患者在由算法塑造的不断变化的医疗环境中如何应对信任、责任委托以及他们对自主权的渴望。
患者如何在AI-CDSS的背景下感知信任?
患者将信任与医疗提供者的专业技能和经验联系在一起。教育、实践经验以及理解特定患者情境的能力都构成了患者认为可信赖的医疗专业人员的特点。许多人担心使用AI-CDSS可能会削弱这些品质。
一些参与者承认AI有可能提高诊断或治疗计划的准确性和一致性。然而,当AI-CDSS的输出与医生建议相冲突时,担忧便浮现出来。这种紧张关系导致了困惑和信任的破裂——不仅是对技术的信任,也包括对可能依赖该技术的医疗专业人员的信任。
患者还表达了对AI-CDSS被视为无懈可击的担忧,尤其是对于缺乏经验的专业人士来说,他们可能会过度依赖这些工具。这种动态被认为会削弱医生作为可信指导者的角色。AI被提升为“第二意见”的想法引起了患者的警觉,他们担心个人参与和关系护理的丧失。
责任方面的伦理问题是什么?
责任是另一个紧张点。患者普遍认为,最终的临床决策责任应由人类专业人员承担。虽然AI-CDSS可以提供有用的见解,但决策由算法决定的想法被认为是根本错误的。
受访者认为,医疗专业人员必须对做出最终决策负责,并且要根据每个患者的独特情况解释AI输出。他们担心技术决定论可能导致专业技能逐渐侵蚀,从而稀释护理质量。
参与者还指出,在发生错误时分配责任的复杂性。他们对追究软件开发者或制造商的责任表示怀疑,理由是实际操作中的责任障碍。大多数患者坚持认为,即使涉及AI-CDSS工具,临床医生也必须是联系点并承担问责责任。
一些患者确实承认他们在医疗过程中的角色,强调共同责任和参与治疗决策的重要性。但他们明确表示,AI不应取代与人类护理人员的个人联系和对话。
AI-CDSS如何影响自主权?
或许最情绪化的回应出现在自主权方面。患者担心AI-CDSS可能会以微妙但重要的方式削弱他们的自主权。几位参与者担心,设计用于预测分析的系统可能会覆盖他们的偏好,特别是在家庭护理或临终规划场景中。
患者提到,来自AI的建议可能会被误解为强制性指令,从而限制他们积极参与自己的护理。被简化为数据点而不是有偏好和价值观的人这一前景令许多人感到不安。
信息控制是另一个主要关切。一些患者担心AI可能会以他们无法理解或控制的方式访问或共享敏感的健康数据。其他人强调他们“不知道”的权利,引用了算法可能预测未来疾病带来的潜在心理伤害。
一个反复出现的主题是希望保持在医疗决策中的积极和平等伙伴。患者对AI-CDSS作为辅助工具持积极态度,但拒绝将其用作替代人类互动或判断的工具。他们呼吁更好地沟通AI系统的工作原理,并采用包容性的设计实践来考虑他们的价值观和关切。
(全文结束)


