医疗检测不平等加剧种族偏见在AI中的影响Medical testing inequities contribute to racial bias in AI

环球医讯 / AI与医疗健康来源:www.techtarget.com美国 - 英语2024-11-07 23:59:00 - 阅读时长3分钟 - 1142字
诊断测试中的种族差异可能导致训练医疗AI的数据中出现种族偏见,从而加剧现有的医疗不平等。
医疗检测不平等种族偏见AI医疗AI健康差异临床决策纠正偏见计算机算法败血症
医疗检测不平等加剧种族偏见在AI中的影响

诊断严重疾病的医疗检测不平等可能在用于训练医疗AI的数据中创建种族偏见,从而可能延续护理差异。据最近发表在《PLOS全球公共卫生》上的一项研究显示,这种检测不平等可能会在AI辅助临床决策中形成种族偏见机制。该研究与2024年国际机器学习会议上的工作表明,黑人患者接受败血症等疾病检测的可能性显著低于白人患者。

这些检测不平等在临床数据中创建了种族偏见,使这些工具更有可能低估黑人人群的病情。在临床决策支持系统中使用这些模型可能会加剧现有的健康差异,因此解决AI偏见成为卫生系统的首要任务。《PLOS》的研究显示,在密歇根医学和波士顿贝斯以色列女执事医疗中心的两个队列中,当患者按性别、年龄、医疗投诉和急诊科分诊评分匹配时,白人患者接受医疗检测的比率比黑人患者高4.5%。

研究团队指出,这种偏见部分可能是由于住院率导致的,因为黑人患者被认为病情较轻且住院的可能性较低。在训练AI工具时考虑这些偏见可以使它们做出更加公平、准确的预测。“如果有某些患者群体系统性地被少检测,那么你就是在将这种偏见嵌入到你的模型中,”密歇根大学计算机科学与工程副教授Jenna Wiens博士在一份新闻稿中说。“调整这些混杂因素是一种标准的统计技术,但通常在训练AI模型之前不会这样做。在训练AI时,承认可用数据中的缺陷并思考其下游影响真的非常重要。”

为了纠正AI中的偏见,开发人员可以省略患者记录以创建一个较少偏见的数据集。在实践中,这可能意味着只包括接受诊断医疗测试的患者的记录,但研究人员指出,这可能会使基于该数据训练的模型对病情较轻的患者不准确。相反,研究团队着手在不省略患者记录的情况下解决偏见。为此,他们开发了一种计算机算法,旨在根据生命体征和种族等因素判断未接受检测的患者是否可能患病。

虽然临床算法中使用种族正在重新评估,但由于数据集中被认定为黑人的患者更容易受到医疗检测偏见的影响,因此在此研究中保留了种族变量。然后,该算法在一个模拟数据集中进行了测试,其中通过将原本标记为患病的患者重新分类为“未检测且健康”引入了已知偏见。这个数据集用于训练机器学习(ML)模型。当使用计算机算法纠正已知偏见时,ML可以有效地区分患有败血症和未患败血症的患者,准确率达到约60%。如果不使用该算法,ML性能会显著下降。使用计算机算法纠正有偏数据的准确性与基于模拟无偏数据训练的ML相当。

“考虑到数据中的系统性偏见的方法是朝着纠正医疗保健交付中的一些不平等迈出的重要一步,尤其是在越来越多的诊所转向基于AI的解决方案时,”该研究的第一作者、密歇根大学计算机科学与工程博士生Trenton Chang说。

Shania Kennedy自2022年起一直在报道与健康IT和分析相关的新闻。


(全文结束)

大健康
大健康