AI 通过膝部 X 光片判断患者是否喝啤酒——它们不能:达特茅斯健康研究AI Thought X-Rays Of Your Knees Show If You Drink Beer—They Don't: Dartmouth Health Study

环球医讯 / AI与医疗健康来源:patch.com美国 - 英语2024-12-12 00:00:00 - 阅读时长3分钟 - 1167字
达特茅斯健康研究揭示了人工智能模型在医疗影像研究中可能存在的误导性结果,强调了谨慎使用和严格评估标准的重要性。
达特茅斯健康研究AI膝部X光片医学影像捷径学习混淆变量偏见科学完整性健康访问
AI 通过膝部 X 光片判断患者是否喝啤酒——它们不能:达特茅斯健康研究

医学,像大多数领域一样,随着人工智能能力的迅速扩展而发生变革。AI 集成可以成为医疗专业人员和研究人员的有用工具,包括在诊断影像解释方面。放射科医生可以从 X 光片中识别骨折和其他异常情况,而 AI 模型可以看到人类无法看到的模式,这为扩大医学影像的有效性提供了机会。

由达特茅斯健康研究人员领导,与佛蒙特州怀特河交汇处的退伍军人事务医疗中心合作,并在《自然》杂志的《科学报告》上发表的一项研究表明,使用 AI 进行医学影像研究存在隐藏的挑战。该研究检查了高度准确但可能具有误导性的结果——一种被称为“捷径学习”的现象。

利用美国国立卫生研究院资助的骨关节炎倡议提供的膝部 X 光片,研究人员展示了 AI 模型可以“预测”不相关且不合理的特征,例如患者是否不吃炖豆或不喝酒。尽管这些预测没有医学依据,但模型达到了令人惊讶的准确性,揭示了它们利用数据中微妙和意外模式的能力。

“虽然 AI 有潜力改变医学影像,但我们必须谨慎,”达特茅斯健康达特茅斯-希区柯克医疗中心(DHMC)的骨科外科医生彼得·L·希林博士(Peter L. Schilling, MD, MS)说,他是这项研究的高级作者。“这些模型可以看到人类无法看到的模式,但并非所有它们识别的模式都是有意义或可靠的。认识到这些风险至关重要,以防止误导性结论并确保科学的完整性。”

希林和他的同事研究了 AI 算法如何经常依赖混淆变量——如 X 光设备的差异或临床站点标记——来做出预测,而不是基于医学上有意义的特征。试图消除这些偏见的努力只取得了有限的成功——AI 模型会继续“学习”其他隐藏的数据模式。

“这不仅仅是种族或性别线索带来的偏见,”达特茅斯-希区柯克医疗中心的机器学习科学家布兰登·G·希尔(Brandon G. Hill)说,他是希林的合著者之一。“我们发现算法甚至可以预测 X 光片拍摄的年份。这种影响非常隐蔽;当你阻止它学习其中一个元素时,它会转而学习之前忽略的另一个元素。这种危险可能导致一些非常可疑的主张,研究人员需要意识到在使用这种技术时这种情况是多么容易发生。”

“当使用模型来发现医学中的新模式时,证明的责任大大增加,”希尔继续说道。“部分问题是我们的偏见。非常容易陷入假设模型‘看到’的方式和我们相同。最终,它并不这样。几乎就像在处理外星智能。你想说模型是在‘作弊’,但这将技术拟人化了。它找到了解决给定任务的方法,但不一定是我们通常理解的人类方式。它没有逻辑或推理。”

要阅读希林和希尔的研究——该研究的另一位作者是达特茅斯盖塞尔医学院三年级学生弗朗西丝·L·科贝克(Frances L. Koback)——请访问 bit.ly/4gox9jq。


本文最初发表于 InDepthNH.org,并在此根据知识共享许可协议转载。


(全文结束)

大健康
大健康