过度信任AI?X光机可能误导放射科医生Too much trust in AI? X-ray boxes may lead radiologists astray

环球医讯 / AI与医疗健康来源:healthcare-in-europe.com美国 - 英语2024-11-20 15:00:00 - 阅读时长3分钟 - 1497字
一项新研究表明,放射科医生和其他医生在诊断时可能会过度依赖AI提供的特定兴趣区域建议,从而影响其诊断准确性
AI放射科医生X光机诊断决策过度依赖《放射学》杂志FDA诊断准确性AI解释
过度信任AI?X光机可能误导放射科医生

当放射科医生和其他医生在诊断决策中依赖AI时,如果AI指出了X光片上的某个特定区域,他们可能会过于依赖这种建议。这是根据《放射学》杂志(Radiological Society of North America出版)上的一项新研究得出的结论。

截至2022年,已有190个放射学AI软件程序获得了美国食品药品监督管理局(FDA)的批准。该研究的高级作者之一、田纳西州孟菲斯市圣犹大儿童研究医院放射科智能成像信息学主任兼副教授Paul H. Yi博士表示:“然而,AI概念验证与其实际临床应用之间存在差距。为了弥合这一差距,培养对AI建议的适当信任至关重要。”

在这项多中心、前瞻性研究中,220名放射科医生和内科/急诊医学医生(其中132名为放射科医生)在AI建议的辅助下阅读胸部X光片。每位医生的任务是评估八个胸部X光病例,同时参考一个模拟AI助手的建议,该助手的诊断性能与该领域的专家相当。这些临床案例提供了来自波士顿贝斯以色列女执事医疗中心的正面和相应的侧面胸部X光图像,通过开源MIMI胸部X光数据库获取。一组放射科医生选择了一套模拟真实世界临床实践的病例。

“作为使用AI的放射科医生,我们需要意识到这些陷阱,并时刻关注我们的诊断模式和培训。”Paul H. Yi博士说道。

对于每个病例,参与者会看到患者的临床历史、AI建议和X光图像。AI会提供正确的或错误的诊断,并附带局部或全局解释。在局部解释中,AI会突出显示被认为最重要的图像部分。对于全局解释,AI会提供以前类似病例的图像,以展示其诊断过程。

“这些局部解释直接引导医生实时关注关心的区域。”Yi博士说,“在我们的研究中,AI实际上用框标出了肺炎或其他异常的区域。”

评审人员可以接受、修改或拒绝AI建议。他们还被要求报告对结果和印象的信心水平,并对AI建议的有用性进行排名。约翰霍普金斯大学巴尔的摩分校计算机科学系的研究生Drew Prinster硕士和Amama Mahmood硕士作为共同第一作者,领导研究人员分析了实验变量对诊断准确性、效率、医生对AI有用性的感知以及“简单信任”(用户同意或不同意AI建议的速度)的影响。研究人员控制了诸如用户人口统计和专业经验等因素。

结果显示,当AI提供局部解释时,评审人员更倾向于与AI建议保持一致,并经历了较短的考虑期。“与全局AI解释相比,当AI建议正确时,局部解释提高了医生的诊断准确性。”Yi博士说,“它们还通过减少考虑AI建议的时间总体提高了诊断效率。”

当AI建议正确时,评审人员的平均诊断准确率为92.8%(局部解释)和85.3%(全局解释)。当AI建议错误时,医生的准确率为23.6%(局部解释)和26.1%(全局解释)。“无论AI建议的准确性如何,研究中的放射科医生和非放射科医生在接受局部解释时都倾向于更快地信任AI诊断。”Yi博士说。研究的共同高级作者、约翰霍普金斯大学计算机科学系John C. Malone助理教授Chien-Ming Huang博士指出,这种对AI的信任可能是一把双刃剑,因为它存在过度依赖或自动化偏差的风险。“当我们过于依赖计算机告诉我们的信息时,这就会成为一个问题,因为AI并不总是正确的。”Yi博士说,“我认为作为使用AI的放射科医生,我们需要意识到这些陷阱,并时刻关注我们的诊断模式和培训。”

基于这项研究,Yi博士表示,AI系统开发者应仔细考虑不同形式的AI解释可能如何影响对AI建议的依赖。“我真的认为行业与医疗保健研究人员之间的合作是关键。”他说,“我希望这篇论文能够开启对话并促进未来的研究合作。”


(全文结束)

大健康
大健康