密歇根大学的研究人员开发了一种算法,用于纠正医疗数据中的种族偏见,确保AI系统能够做出更公平和准确的预测。这一进展有望减少医疗保健差异,显著影响AI在诊断如败血症等疾病中的作用。
新的研究表明,密歇根大学的研究人员发现医疗测试中存在显著的种族差异,突显了实现公平医疗保健解决方案的紧迫性。研究团队发现,系统性的偏见使黑人患者处于不利地位,影响了用于诊断关键疾病的AI模型的准确性。
这两项关键研究分别发表在《PLOS全球公共卫生》和在奥地利维也纳举行的国际机器学习会议上。这项创新研究展示了如何训练AI的医疗数据通常对黑人患者存在偏见。研究团队发现,即使在相同的医疗条件下,黑人患者接受必要诊断测试的可能性也低于白人患者。
“如果某些患者群体系统性地被低估测,那么这种偏见就会被纳入你的模型中,”密歇根大学计算机科学与工程副教授詹娜·温斯(Jenna Wiens)在新闻发布会上说。“调整这些混淆因素是一种标准的统计技术,但在训练AI模型之前通常不会这样做。在训练AI时,承认可用数据中的缺陷并考虑其下游影响非常重要。”
研究发现,白人患者的测试频率比具有相似医疗需求的黑人患者高出4.5%。这种偏见在密歇根医学中心安阿伯分校和波士顿贝丝以色列女执事医疗中心的重症监护医疗信息市场(MIMIC)数据集中都很明显。
为了解决这个问题,研究团队开发了一种新算法,旨在识别那些尽管未接受测试但可能患有严重疾病的患者,这些患者的种族和生命体征被纳入考虑。这使得AI模型能够在不排除任何患者记录的情况下补偿这种偏见。
“考虑到数据中的系统性偏见的方法是纠正医疗保健提供中一些不平等现象的重要一步,特别是在越来越多的诊所转向基于AI的解决方案时,”密歇根大学计算机科学与工程博士生特伦顿·张(Trenton Chang)在新闻发布会上说,他是两项研究的第一作者。
使用模拟数据,该算法显著提高了AI模型在诊断如败血症等疾病方面的准确性,达到了与无偏见数据集训练的模型相当的准确率。
这一开创性的工作揭示了AI在医疗保健中前进的道路,这条道路不仅不会延续现有的偏见,还力求减轻这些偏见。这种偏见校正算法的整合可能导致更公平的医疗保健结果,并激发更公平、更具包容性的AI系统的开发。
这项研究不仅揭示了当前AI训练实践中的一个关键缺陷,还提供了一个实用的解决方案,通过先进技术促进医疗治疗的公平性。随着越来越多的诊所采用基于AI的解决方案,这些算法的实施可能是朝着更加公正的医疗保健系统迈出的重要一步。
(全文结束)


