更多AI解释可能降低癌症诊断准确性More AI explanations can reduce accuracy in cancer diagnosis

环球医讯 / AI与医疗健康来源:www.news-medical.net美国 - 英语2025-12-26 19:59:15 - 阅读时长4分钟 - 1642字
史蒂文斯理工学院最新研究表明,向临床医生提供过度详细的AI解释反而会降低癌症诊断准确性。研究发现,虽然AI能有效辅助医生分析医学影像,但过多的解释信息会增加医生的认知负担,分散其对图像分析的注意力,导致决策时间延长、错误率上升。同时,部分医生对AI产生盲目信任,可能忽视关键诊断信息。研究建议AI系统设计应平衡解释深度与易用性,加强医生培训以提升解读能力而非单纯依赖系统,确保AI工具既实用又易于操作,才能真正提高医疗诊断效率和质量。
AI癌症诊断准确性医学影像临床医生可解释性信任度认知负荷乳腺癌人工监督易用性
更多AI解释可能降低癌症诊断准确性

近年来,人工智能已成为分析医学影像的有力工具。得益于计算技术的进步和庞大的医学数据集,AI已被证明在解读和分析X光片、MRI和CT扫描中的模式方面具有重要价值,使医生能够做出更好、更快的决策,特别是在癌症等危及生命的疾病的诊断和治疗中。在某些情况下,这些AI工具甚至比人类同行更具优势。

"AI系统可以快速处理数千张图像,并提供比人类审阅者更快的预测,"专注于医疗保健领域人机交互研究的史蒂文斯理工学院(Stevens Institute of Technology)副教授Onur Asan表示。"与人类不同,AI不会随着时间推移而感到疲倦或失去专注力。"

然而,许多临床医生对AI至少持一定程度的不信任,主要是因为他们不知道AI如何得出其预测结果,这一问题被称为"黑箱"问题。Asan表示:"当临床医生不知道AI如何生成其预测时,他们不太可能信任它。因此,我们想了解提供额外解释是否有助于临床医生,以及不同程度的AI可解释性如何影响诊断准确性以及对系统的信任度。"

Asan与他的博士生Olya Rezaeian以及来自理海大学(Lehigh University)的助理教授Alparslan Emrah Bayrak合作,对28名使用AI分析乳腺癌图像的肿瘤科医生和放射科医生进行了研究。临床医生还获得了不同程度的AI工具评估解释。最后,参与者回答了一系列旨在评估他们对AI生成评估的信心以及任务难度的问题。

研究团队发现,与对照组相比,AI确实提高了临床医生的诊断准确性,但也存在一些有趣的注意事项。

研究表明,提供更深入的解释并不一定能产生更多的信任。Asan表示:"我们发现,更多的可解释性并不等同于更多的信任。"这是因为添加额外或更复杂的解释需要临床医生处理更多信息,这会占用他们的时间和精力,使他们无法专注于分析图像。当解释更为详尽时,临床医生做出决策所需时间更长,从而降低了他们的整体表现。

处理更多信息会增加临床医生的认知负担。这也使他们更容易犯错,可能对患者造成伤害。你不希望通过添加更多任务来增加用户的认知负荷。

Onur Asan,史蒂文斯理工学院副教授

Asan的研究还发现,在某些情况下,临床医生对AI的信任度过高,这可能导致他们忽视图像上的关键信息,从而对患者造成伤害。Asan表示:"如果一个AI系统设计不当并在用户对其高度信任的情况下犯了一些错误,一些临床医生可能会产生盲目的信任,认为AI建议的任何内容都是真实的,而不会充分审查结果。"

该团队在最近发表的两项研究中概述了他们的发现:《AI解释对乳腺癌临床医生信任度和诊断准确性的影响》,于2025年11月1日发表在《应用人体工程学》(Applied Ergonomics)期刊上;以及《临床决策支持系统中的可解释性与AI信心:对乳腺癌护理中信任度、诊断表现和认知负荷的影响》,于2025年8月7日发表在《国际人机交互杂志》(International Journal of Human–Computer Interaction)上。

Asan认为,AI将继续成为临床医生解读医学影像的得力助手,但此类系统必须经过精心设计。他表示:"我们的研究结果表明,设计者在将解释功能构建到AI系统中时应谨慎行事,"以确保它们不会变得过于繁琐。此外,他还补充说,用户需要接受适当的培训,因为人工监督仍然是必要的。"使用AI的临床医生应接受强调解读AI输出而不仅仅是信任它的培训。"

Asan指出,最终,AI系统的易用性和实用性之间应取得良好平衡。他表示:"研究表明,人们使用任何技术形式有两个主要参数——感知有用性和感知易用性。因此,如果医生认为该工具对他们的工作有用且易于使用,他们就会使用它。"

【全文结束】

大健康
大健康