一项由达特茅斯健康研究人员进行的新研究表明,在医学影像研究中使用人工智能(AI)可能带来潜在风险,即算法可以通过不合逻辑的理由得出正确的结论。这项研究发表在《自然》旗下的《科学报告》上,使用了5,000张人类膝关节的X光片,并结合患者填写的饮食习惯调查问卷。
机器学习软件被要求根据X光片扫描结果判断哪些患者更有可能喝啤酒或吃煎豆,尽管这些活动在膝关节X光片上没有任何可视证据。研究报告的合著者、达特茅斯希区柯克医疗中心的机器学习研究员布兰登·希尔表示:“我们希望它能看到人类能看到的东西,或者如果我们有更敏锐的视力也能看到的东西。然而,这里的核心问题是:当它做出这些关联时,我们假设一定是基于生理或医学图像中的某些因素,但这并不一定成立。”
虽然机器学习工具确实经常准确地判断出哪些膝盖(即接受X光检查的人)更有可能喝啤酒或吃煎豆,但它这样做是通过假设患者的种族、性别以及X光拍摄地点等变量。该算法甚至能够确定最初图像来自哪种型号的X光扫描仪,从而在扫描位置和某些饮食习惯之间建立联系。最终,AI是根据这些变量来判断谁喝啤酒和吃煎豆,而不是图像本身与食物或饮料消费相关的任何信息,研究人员称之为“捷径”。
“我们展示的一部分内容是,这是一把双刃剑。它可以发现人类无法看到的东西,”希尔说,“但它也可以发现人类看不到的模式,这可能会误导你。”研究作者建议,医学研究人员在部署机器学习工具时应保持谨慎。“如果你有AI来检测信用卡交易是否欺诈,它为什么这么认为并不重要。我们只需要阻止信用卡继续扣费,”骨科医生、该论文的高级作者彼得·席林博士表示。但在患者治疗方面,席林建议临床医生保守使用这些工具,以“真正优化他们提供的护理”。
(全文结束)


