人工智能(AI)在医疗影像领域的应用前景广阔,有望提高诊断准确性。然而,法律和伦理问题一直是讨论的热点,最近的研究揭示了AI医疗影像中存在的一个潜在问题——“捷径学习”。如果您不熟悉这个术语,您可能还需要了解“算法不公平”。
“捷径学习”是指AI模型通过数据中的虚假相关性来解决任务,而不是依赖于与任务直接相关的特征。“算法不公平”,也称为算法偏见,发生在机器学习模型基于数据中的错误相关性进行预测时。
一项发表于十二月的研究展示了“捷径学习”可能导致的算法不公平现象。该研究由美国达特茅斯健康研究所的研究人员完成,题目为《深度学习算法在医学影像研究中的捷径风险》,发表在《科学报告》上。作者们展示了捷径学习是如何轻易发生的及其潜在风险。
研究人员写道:“我们使用简单的ResNet18卷积神经网络训练模型来完成两项它们本不应能完成的任务:仅通过检查膝关节X光片预测患者是否避免食用油炸豆或饮用啤酒(对于油炸豆的AUC为0.63,对于啤酒的AUC为0.73)。”
该研究分析了超过25,000张膝关节X光片(来自4,789名患者),这些X光片来自国家卫生研究院资助的骨关节炎倡议项目。研究人员创建了两个模型,分别用于预测患者自我报告的对豆类和啤酒的偏好。研究使用了五个临床站点收集的双侧PA固定屈曲X光片。
达特茅斯团队的研究员布兰登·希尔评论道:“这不仅仅是种族或性别线索带来的偏差。我们发现算法甚至可以预测X光片拍摄的年份。这种情况非常有害——当你阻止它学习某个元素时,它会转而学习之前忽略的另一个元素。这种危险可能导致一些非常可疑的结论,研究人员需要意识到这种情况在使用该技术时是多么容易发生。”
他继续说:“当使用模型发现医学中的新模式时,证明责任大大增加。部分问题是我们的偏见。很容易陷入认为模型‘看到’的东西和我们一样。实际上,它并不如此。几乎像是处理一种外星智能。你可能会说模型在‘作弊’,但这赋予了技术拟人化的色彩。它找到了一种方法来解决给定的任务,但不一定是我们理解的那种逻辑或推理。”
总之,AI在医疗保健领域可以带来巨大好处,但前提是必须在严格的监督下进行,并遵循严格评估标准。
我们将引用计算机科学家兼AI研究员Eliezer Yudkowsky的话作为结尾:“AI的最大危险在于人们过早地认为自己已经理解了它。”
(全文结束)


