2025年12月14日。近年来,人工智能已成为分析医学影像的有力工具。得益于计算技术的进步和AI可学习的大型医学数据集,它在解读X光、磁共振成像(MRI)和计算机断层扫描(CT)中的模式方面被证明是宝贵辅助,使医生能够做出更好更快的决策,特别是在癌症等危及生命的疾病诊断和治疗中。在某些情况下,这些AI工具甚至比人类同行更具优势。
“AI系统可以快速处理数千张图像,并提供比人类评审者快得多的预测,”斯特文斯理工学院(Stevens Institute of Technology)副教授奥努尔·阿桑(Onur Asan)表示,他的研究专注于医疗保健中的人机交互。“与人类不同,AI不会随时间感到疲倦或失去注意力。”
然而,许多临床医生对AI至少持一定程度的不信任,主要是因为他们不知道AI如何得出预测,这个问题被称为“黑箱”问题。“当临床医生不知道AI如何生成预测时,他们不太可能信任它,”阿桑说。“因此,我们想了解提供额外解释是否能帮助临床医生,以及AI可解释性的不同程度如何影响诊断准确性及对系统的信任。”
阿桑与他的博士生奥利娅·雷扎伊安(Olya Rezaeian)以及里海大学(Lehigh University)助理教授阿尔帕斯兰·埃姆拉赫·拜拉克(Alparslan Emrah Bayrak)合作,对28名使用AI分析乳腺癌图像的肿瘤科医生和放射科医生进行了研究。临床医生还获得了AI工具评估的各种级别解释。最后,参与者回答了一系列问题,旨在衡量他们对AI生成评估的信心以及任务的难度。
研究小组发现,与对照组相比,AI确实提高了临床医生的诊断准确性,但存在一些关键注意事项。
研究表明,提供更深入的解释并不一定产生更多信任。“我们发现,更高的可解释性并不等于更多的信任,”阿桑说。这是因为添加额外或更复杂的解释要求临床医生处理更多信息,分散了他们分析图像的时间和注意力。当解释更详细时,临床医生做决策的时间更长,这降低了他们的整体表现。
“处理更多信息会增加临床医生的认知负荷。这也使他们更可能犯错并可能伤害患者,”阿桑解释道。“你不希望通过添加更多任务来增加用户的认知负担。”
阿桑的研究还发现,在某些情况下,临床医生过于信任AI,这可能导致忽略图像上的关键信息,从而对患者造成伤害。“如果AI系统设计不佳,并在用户对其高度信任时出现错误,一些临床医生可能会产生盲目的信任,认为AI建议的任何内容都是真实的,而没有充分审查结果,”阿桑说。
该团队在两项最新研究中概述了他们的发现:《AI解释对乳腺癌中临床医生信任和诊断准确性的影响》于11月1日发表在《应用人体工程学杂志》(Applied Ergonomics),以及《临床决策支持系统中的可解释性与AI信心:对乳腺癌护理中信任、诊断表现和认知负荷的影响》于8月7日发表在《人机交互国际杂志》(International Journal of Human–Computer Interaction)。
阿桑认为,AI将继续成为临床医生解读医学影像的有用助手,但此类系统必须经过深思熟虑的设计。“我们的研究结果表明,设计者在将解释构建到AI系统中时应谨慎行事,”他说,以确保它们不会变得过于繁琐。此外,他补充说,用户需要适当的培训,因为人工监督仍然必要。“使用AI的临床医生应接受强调解读AI输出而不仅仅是信任它的培训。”
阿桑指出,AI系统的易用性和实用性之间应该有一个良好的平衡。“研究发现,一个人使用任何技术形式有两个主要参数——感知有用性和感知易用性,”他说。“因此,如果医生认为这个工具对完成工作有用且易于使用,他们就会使用它。”
【全文结束】


