放射科医生分享预防人工智能偏见的建议
RSNA: Radiologists Share Tips to Prevent Artificial Intelligence Bias
放射科医生、计算机科学家和信息学家在今天发表于《放射学》杂志的一篇文章中概述了如何避免人工智能(AI)模型中的偏见陷阱和最佳实践。《放射学》是北美放射学会(RSNA)的期刊。
伊利诺伊州橡树溪,2025年5月20日 /PRNewswire-PRWeb/ — 放射科医生、计算机科学家和信息学家在今天发表于《放射学》杂志的一篇文章中概述了如何避免人工智能(AI)模型中的偏见陷阱和最佳实践。《放射学》是北美放射学会(RSNA)的期刊。
AI为扩展诊断能力提供了前所未有的机会,有可能改善数百万人的健康结果。然而,如果偏见得不到控制,AI可能会无意中加剧医疗保健不平等。
“AI有潜力通过提高诊断准确性和获得护理的机会来彻底改变放射学,”本文的主要作者、田纳西州孟菲斯圣犹大儿童研究医院放射科副教授兼智能成像信息学主任Paul H. Yi博士说。“然而,AI算法有时会表现出偏见,无意中基于年龄、性别或种族对某些群体不利。”
尽管对此问题的认识正在增加,但在评估和测量算法偏见方面仍存在挑战。
在文章中,Yi博士及其同事确定了可能出现陷阱的关键领域,以及应采取的最佳实践和倡议。
“尽管这一话题受到广泛关注,但在统计定义偏见、人口统计数据分类以及用于确定‘显著’偏见的临床标准等关键方面仍缺乏共识,”Yi博士说。
第一个陷阱是医学影像数据集中代表性不足。数据集对于训练和评估AI算法至关重要,可以包含来自数千名患者的数十万张图像。许多数据集缺乏种族、族裔、年龄和性别的信息。
例如,在Yi博士及其同事之前的一项研究中,23个公开可用的胸部X光数据集中,只有17%报告了种族或族裔信息。
为了创建更能代表更广泛人群的数据集,作者建议尽可能收集和报告尽可能多的人口统计变量,建议的最低集合包括年龄、性别和/或性别认同、种族和族裔。此外,只要可行,应收集和共享未经机构特定后处理的原始影像数据。
第二个主要问题是关于人口统计组定义的共识缺失。这是一个挑战,因为许多人口统计类别,如性别或种族,并不是生物学变量,而是由社会或生活经历所决定的自我认同特征。
作者指出,解决这个问题的方法是建立更具体的人口统计术语,更好地符合社会规范,并避免将单独但相关的人口统计类别合并,如种族和族裔或性别和性别认同。
最后一个主要陷阱是AI偏见的统计评估。这一问题的核心是建立偏见定义的共识,这在临床和技术上有不同的含义。在本文中,偏见是指人口统计公平性,以及它如何反映不同人口统计组之间的指标差异。
一旦建立了标准的偏见概念,就需要解决公平性指标的不兼容性。公平性指标是衡量机器学习模型是否对某些人口统计组有不同的工具。作者强调,没有一种通用的公平性指标适用于所有情况和问题。
作者建议使用基于临床相关的人口统计偏见评估的标准和公认的概念,比较不同人口统计组之间的AI模型性能。
此外,他们还指出,预测模型的不同操作点会导致不同的性能,从而导致不同的人口统计偏见。这些操作点和阈值应在研究和商业AI产品供应商中记录。
根据Yi博士的说法,这项工作为更一致地测量和解决偏见提供了路线图,确保AI支持包容性和公平的医疗服务。
“AI提供了一个前所未有的机会,以我们从未见过的方式扩展诊断能力,有可能改善数百万人的健康结果,”他说。“同时,如果偏见得不到控制,AI可能会无意中加剧医疗保健不平等。”
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。
本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。