研究人员提出五个指导性问题以改善人工智能在医生临床决策中的应用Researchers pose five guiding questions to improve use of AI in physicians' clinical decision-making

环球医讯 / AI与医疗健康来源:medicalxpress.com美国 - 英语2025-10-30 02:50:43 - 阅读时长3分钟 - 1158字
研究人员提出五个关键问题指导AI在临床决策中的应用,包括信息呈现方式、时机选择、决策透明度、对偏见影响及长期依赖风险。这些问题旨在平衡AI辅助与医生专业能力,防止过度依赖导致诊断技能退化。研究表明,AI应作为医生决策的补充工具而非替代品,通过优化人机协作机制,可提高诊断准确性、效率和患者安全性,同时避免AI整合不当可能带来的新风险。
人工智能医生临床决策诊断准确性患者安全性指导性问题诊断错误信息格式过度依赖技能退化协作
研究人员提出五个指导性问题以改善人工智能在医生临床决策中的应用

人工智能(AI)虽然可以作为医生帮助诊断患者的有力工具,并具有提高诊断准确性、效率和患者安全性的巨大潜力,但它也存在一些缺点。AI可能会分散医生的注意力,使他们过度依赖AI提供的答案,甚至导致他们对自己的诊断判断失去信心。

为确保AI能够恰当地融入医疗实践,一个研究团队提出了包含五个指导性问题的框架,旨在支持医生的患者护理工作,同时避免因过度依赖AI而削弱其专业能力。该框架最近发表在《美国医学信息学协会杂志》上。

"这篇论文将讨论重点从AI算法的性能如何,转向了医生在诊断过程中如何实际与AI互动,"资深作者、加州大学洛杉矶分校David Geffen医学院普通内科和卫生服务研究系医学教授、国家临床学者项目主任Joann G. Elmore博士说。

"这篇论文提供了一个框架,将领域研究从'AI能否检测疾病?'推进到'AI应如何在不削弱医生专业知识的前提下支持医生?'这种重新定位是实现AI在临床实践中更安全、更有效应用的关键一步。"

虽然AI相关错误时有发生,但没有人真正了解为什么这些工具在实际临床应用中无法改善诊断决策。

为了解原因,研究人员提出了五个问题来指导研究和开发,以防止与AI相关的诊断错误。这些问题包括:AI应呈现什么类型和格式的信息?它应立即提供这些信息,还是在初步检查后提供,或是由医生自行控制开关?AI系统如何展示其决策过程?它如何影响偏见和自满情绪?最后,长期依赖AI的风险是什么?

这些问题之所以重要,是因为:

  • 信息格式会影响医生的注意力、诊断准确性和可能的解释偏差
  • 即时信息可能导致有偏见的解释,而延迟提示可能通过让医生更全面地参与诊断,有助于保持诊断技能
  • AI系统如何做出决策可以突出被纳入或排除的特征,提供"假设"类型的解释,并更有效地与医生的临床推理保持一致
  • 当医生过度依赖AI时,他们可能减少对自己批判性思维的依赖,导致准确诊断被忽略
  • 长期依赖AI可能会削弱医生习得的诊断能力

改进诊断用AI的下一步措施包括:在临床环境中评估不同设计,研究AI如何影响信任和决策,观察在培训和临床实践中使用AI时医生技能的发展,以及开发能够自我调整辅助医生方式的系统。

"AI在提高诊断准确性、效率和患者安全性方面具有巨大潜力,但糟糕的整合可能会使医疗保健变得更糟而非更好,"Elmore表示。"通过强调时间、信任、过度依赖和技能退化等人为因素,我们的工作强调AI必须设计为与医生协作,而非取代他们。如果希望AI在不引入新风险的情况下增强医疗保健,这种平衡至关重要。"

该研究的合著者包括塔夫茨大学的Tad Brunyé和乔治华盛顿大学的Stephen Mitroff。

【全文结束】

大健康
大健康