背景:基于人工智能的临床决策支持系统(AI-CDSS)正逐渐应用于医疗保健的各个领域,用于诊断、预后、治疗等目的。关于伦理上适当的条件,讨论的一个重要部分是确保负责任地使用AI-CDSS所需的理解水平和可解释性。目前关于这些议题的利益相关者观点的实证证据尚不足。本研究通过一方面深入调查理解与可解释性的要求及其背后的原因,另一方面调查即将毕业的医学生作为利益相关者的观点来补充实证-伦理研究。对于医学生来说,数据较少,但AI-CDSS将是他们未来医疗实践的重要组成部分。
方法:对15名德国医学生进行了半结构化的定性访谈(每次平均持续56分钟),以了解他们对使用AI-CDSS的看法和态度。访谈以两个假设案例为基础,涉及肾病和外科领域的AI-CDSS。访谈对象对自身临床角色和责任的看法,以及对可解释性和所需理解水平和能力的看法进行了探讨。根据Kuckartz的关键原则对定性数据进行了分析。
结果:针对AI-CDSS工具及其输出生成的必要理解和要求的原因,从访谈对象的陈述中归纳出了两种类型的论证:第一种类型,即“作为系统受托人的临床医生”(或“依赖者”),强调需要有实证证据和适当的审批流程,以确保使用AI-CDSS带来的最小伤害和临床益处。基于这些要求的证明,使用AI-CDSS是合适的,因为“依赖者”认为临床医生应选择统计上造成最少伤害的措施。第二种类型,即“作为个体专家的临床医生”(或“控制者”),提出了更高的前提条件,超越了确保实证证据和适当审批流程的要求。这些更高前提条件涉及临床医生对特定AI-CDSS的工作原理及其正确使用的必要理解水平和能力,以便评估其输出并减轻个别患者的潜在风险。两种类型都高度重视循证临床实践和与患者沟通医疗AI的必要性。然而,访谈对象对临床医生角色和责任的不同概念导致他们在理解水平和AI-CDSS可解释性方面有不同的要求。
结论:研究结果突显了(未来的)临床医生在看待所需理解水平和能力方面的两种不同类型。这些发现应为适当培训计划和专业标准(如临床实践指南)的制定提供参考,以确保AI-CDSS在各种临床领域的安全有效应用。虽然当前的方法正在寻找必要的理解能力和能力的适当最低要求,但本文描述的(未来的)临床医生在信息和理解需求方面的差异可以导致更细致的解决方案方法。
(全文结束)


