人工智能在解读诊断图像方面可以成为医疗保健专业人员和研究人员的有用工具。放射科医生可以从X光片中识别骨折和其他异常情况,而AI模型可以看到人类无法察觉的模式,从而有机会扩大医学影像的有效性。
但《科学报告》上的一项研究揭示了在医疗影像研究中使用AI的一个隐藏挑战——即所谓的“捷径学习”,这种现象表现为高度准确但可能具有误导性的结果。
研究人员分析了超过25,000张来自美国国立卫生研究院资助的骨关节炎倡议项目的膝关节X光片,发现AI模型可以“预测”无关且不合理的特征,例如患者是否避免食用炒豆或啤酒。尽管这些预测没有医学依据,但模型通过利用数据中的微妙和意外模式达到了令人惊讶的准确性。
“虽然AI有潜力改变医学影像,但我们必须谨慎。”该研究的资深作者、达特茅斯健康中心的骨科外科医生彼得·席林博士说,“这些模型可以看到人类无法看到的模式,但并非所有它们识别的模式都有意义或可靠。认识到这些风险至关重要,以防止得出误导性结论并确保科学的完整性。”
研究人员考察了AI算法如何依赖混淆变量(如X光设备的差异或临床站点标记)来做出预测,而不是依赖医学上有意义的特征。试图消除这些偏见只取得了有限的成功——AI模型会继续“学习”其他隐藏的数据模式。
“这不仅仅是种族或性别线索带来的偏见。”该研究的合著者、达特茅斯希区柯克医院的机器学习科学家布兰登·希尔说,“我们发现算法甚至可以预测X光片拍摄的年份。这是非常棘手的问题——当你阻止它学习其中一个元素时,它会转而学习另一个之前被忽略的元素。这种危险可能导致一些非常荒谬的结论,研究人员需要意识到使用这项技术时这种情况是多么容易发生。”
研究结果强调了在基于AI的医学研究中需要严格的评估标准。过度依赖标准算法而不进行深入审查可能会导致错误的临床见解和治疗路径。
“当使用模型发现医学中的新模式时,证明责任大大增加。”希尔说,“部分问题是我们的偏见。很容易陷入认为模型‘看到’的方式与我们相同这一陷阱。最终,事实并非如此。”
“AI几乎就像处理一种外星智能。”希尔继续说道,“你想要说模型是在‘作弊’,但这将技术拟人化了。它找到了解决给定任务的方法,但不一定是人类会采取的方式。它没有我们通常理解的逻辑或推理能力。”
席林、希尔和研究的另一位合著者弗朗西丝·科巴克(达特茅斯盖塞尔医学院的三年级医学生)与位于佛蒙特州怀特河交汇处的退伍军人事务医疗中心合作进行了这项研究。
(全文结束)


