创新方法推进医疗保健AI公平性Innovative approach advances equity in health care AI

AI与医疗健康 / 来源:www.news-medical.net美国 - 英语2025-09-06 06:20:00 - 阅读时长2分钟 - 906字
西奈山伊坎医学院研究人员开发出名为AEquity的新工具,通过检测并纠正医疗数据集中的显性和隐性种族偏见,在训练AI模型前消除数据偏差。该工具可适配多种机器学习模型,经医学影像、电子病历和国家级健康调查数据验证,能有效识别既往被忽视的偏见,研究发表在《互联网医学研究杂志》并获美国国立卫生研究院资助,强调技术改进需与数据采集方法变革相结合才能实现医疗AI公平性。
医疗保健AI公平性AEquity工具医疗数据偏见诊断准确性机器学习模型医疗AI可靠性数据质量改进公平医疗AI系统患者群体
创新方法推进医疗保健AI公平性

西奈山医疗系统的研究团队于2025年9月4日在《互联网医学研究杂志》发表研究报告(DOI:10.2196/71757),揭示了一种名为AEquity的新型工具。该工具通过检测并修正医疗数据集中的人种偏见,在机器学习算法训练前优化数据质量,解决可能影响诊断准确性和治疗决策的关键问题。

该团队测试了多种医疗数据类型,包括医学影像、患者电子病历和全美健康与营养调查数据,验证了AEquity在不同机器学习模型中的有效性。该工具不仅能够识别已知偏见,还发现了此前未被重视的数据偏差。研究指出,医疗AI的准确性高度依赖训练数据质量,某些人口群体在数据集中占比不足,或特定疾病在不同群体中的临床表现差异,可能导致算法持续放大错误,形成诊断遗漏和不良医疗结果的恶性循环。

项目负责人法里斯·古拉马利医学博士表示:"我们的目标是为开发者和医疗机构提供实用工具,帮助他们识别数据中的偏见并进行修正,确保AI工具对所有群体都具有可靠性,而不仅反映数据集中占比最高的群体特征。"

研究显示,AEquity可适配从基础算法到大型语言模型的多种机器学习架构,既能评估实验室检测结果、医学影像等输入数据,也可分析预测性诊断和风险评分等输出结果。该工具在算法开发、部署前审计以及医疗AI公平性改进工作中均具有应用价值。

资深通讯作者吉里什·纳德卡尼教授强调:"这类工具是构建公平医疗AI系统的重要环节,但解决方案需要技术革新与数据采集方法的根本性变革相结合。数据基础的质量决定AI系统的可靠性,这要求我们在数据收集、解读和应用方式上进行系统性改进。"

西奈山医疗系统首席临床官大卫·莱希指出:"通过在数据集层面识别并修正固有偏见,我们从根本上解决问题,这有助于建立社区对AI医疗的信任,确保技术创新能惠及所有患者群体。这是建设持续优化的学习型医疗系统的重要里程碑。"

研究团队包括15位来自伊坎医学院和西奈山医疗系统的专家,资助方为美国国立卫生研究院转化医学中心。论文标题为《通过子群体可学习性检测、刻画和缓解医疗数据集中的显性和隐性种族偏见:算法开发与验证研究》。

【全文结束】