近年来,人工智能已成为分析医学影像的有力工具。得益于计算技术的进步和庞大的医学数据集,AI已被证明在解读和分析X光片、MRI和CT扫描中的模式方面具有重要价值,使医生能够做出更好、更快的决策,特别是在癌症等危及生命的疾病的诊断和治疗中。在某些情况下,这些AI工具甚至比人类同行更具优势。
"AI系统可以快速处理数千张图像,并提供比人类审阅者更快的预测,"专注于医疗保健领域人机交互研究的史蒂文斯理工学院(Stevens Institute of Technology)副教授Onur Asan表示。"与人类不同,AI不会随着时间推移而感到疲倦或失去专注力。"
然而,许多临床医生对AI至少持一定程度的不信任,主要是因为他们不知道AI如何得出其预测结果,这一问题被称为"黑箱"问题。Asan表示:"当临床医生不知道AI如何生成其预测时,他们不太可能信任它。因此,我们想了解提供额外解释是否有助于临床医生,以及不同程度的AI可解释性如何影响诊断准确性以及对系统的信任度。"
Asan与他的博士生Olya Rezaeian以及来自理海大学(Lehigh University)的助理教授Alparslan Emrah Bayrak合作,对28名使用AI分析乳腺癌图像的肿瘤科医生和放射科医生进行了研究。临床医生还获得了不同程度的AI工具评估解释。最后,参与者回答了一系列旨在评估他们对AI生成评估的信心以及任务难度的问题。
研究团队发现,与对照组相比,AI确实提高了临床医生的诊断准确性,但也存在一些有趣的注意事项。
研究表明,提供更深入的解释并不一定能产生更多的信任。Asan表示:"我们发现,更多的可解释性并不等同于更多的信任。"这是因为添加额外或更复杂的解释需要临床医生处理更多信息,这会占用他们的时间和精力,使他们无法专注于分析图像。当解释更为详尽时,临床医生做出决策所需时间更长,从而降低了他们的整体表现。
处理更多信息会增加临床医生的认知负担。这也使他们更容易犯错,可能对患者造成伤害。你不希望通过添加更多任务来增加用户的认知负荷。
Onur Asan,史蒂文斯理工学院副教授
Asan的研究还发现,在某些情况下,临床医生对AI的信任度过高,这可能导致他们忽视图像上的关键信息,从而对患者造成伤害。Asan表示:"如果一个AI系统设计不当并在用户对其高度信任的情况下犯了一些错误,一些临床医生可能会产生盲目的信任,认为AI建议的任何内容都是真实的,而不会充分审查结果。"
该团队在最近发表的两项研究中概述了他们的发现:《AI解释对乳腺癌临床医生信任度和诊断准确性的影响》,于2025年11月1日发表在《应用人体工程学》(Applied Ergonomics)期刊上;以及《临床决策支持系统中的可解释性与AI信心:对乳腺癌护理中信任度、诊断表现和认知负荷的影响》,于2025年8月7日发表在《国际人机交互杂志》(International Journal of Human–Computer Interaction)上。
Asan认为,AI将继续成为临床医生解读医学影像的得力助手,但此类系统必须经过精心设计。他表示:"我们的研究结果表明,设计者在将解释功能构建到AI系统中时应谨慎行事,"以确保它们不会变得过于繁琐。此外,他还补充说,用户需要接受适当的培训,因为人工监督仍然是必要的。"使用AI的临床医生应接受强调解读AI输出而不仅仅是信任它的培训。"
Asan指出,最终,AI系统的易用性和实用性之间应取得良好平衡。他表示:"研究表明,人们使用任何技术形式有两个主要参数——感知有用性和感知易用性。因此,如果医生认为该工具对他们的工作有用且易于使用,他们就会使用它。"
【全文结束】


