AI可以从心脏扫描中猜测种族类别——这意味着什么以及为什么重要AI can guess racial categories from heart scans—what it means and why it matters

环球医讯 / AI与医疗健康来源:medicalxpress.com美国 - 英语2025-05-13 22:00:00 - 阅读时长4分钟 - 1883字
一项研究发现,人工智能模型可以从心脏扫描中以高达96%的准确率猜测患者的种族类别,尽管没有明确提供种族信息。这揭示了AI系统如何吸收和再现社会偏见,并强调了需要多样化训练数据和提高透明度的重要性。
AI心脏扫描种族类别医疗保健偏见训练数据捷径学习多样化数据透明度种族处理健康平等
AI可以从心脏扫描中猜测种族类别——这意味着什么以及为什么重要

想象一个AI模型,它可以使用心脏扫描来猜测你可能被归类为哪个种族类别——即使它没有被告知什么是种族或要寻找什么。这听起来像是科幻小说,但它是真实的。

我最近与同事们进行的一项研究发现,一个AI模型可以从心脏图像中猜测患者是否被识别为黑人或白人,准确率高达96%——尽管没有提供关于种族类别的明确信息。

这是一个引人注目的发现,挑战了对AI客观性的假设,并突显了一个更深层次的问题:AI系统不仅反映世界,还吸收并再现了其中的偏见。

首先,需要明确的是:种族不是一个生物学类别。现代遗传学表明,在所谓的种族群体内部存在比不同群体之间更多的变异。

种族是一个社会建构,是一组由社会根据感知到的身体特征和血统分类的类别。这些分类并不完全对应于生物学,但它们影响从生活经历到医疗保健的一切。

尽管如此,许多AI系统现在正在学习检测并可能基于这些社会标签采取行动,因为它们是用受种族被视为生物学事实的世界所塑造的数据构建的。

AI系统已经在改变医疗保健。它们可以分析胸部X光片、读取心脏扫描并更快地标记潜在问题——在某些情况下,只需几秒钟而不是几分钟。医院正在采用这些工具来提高效率、降低成本和标准化护理。

偏见不是漏洞——而是内置的

但无论多么先进,AI系统都不是中立的。它们是在真实世界的数据上训练的——而这些数据反映了现实世界的不平等,包括基于种族、性别、年龄和社会经济地位的不平等。这些系统可以学会根据这些特征不同地对待患者,即使没有人明确编程这样做。

一个主要的偏见来源是不平衡的训练数据。例如,如果一个模型主要从浅肤色患者那里学习,那么它可能难以检测深肤色人群的疾病。皮肤病学的研究已经显示了这个问题。

即使是像ChatGPT这样的语言模型也不免于此:一项研究发现,一些模型仍然复制过时和错误的医学信仰,例如黑人患者皮肤比白人患者更厚的谬论。

有时,AI模型看起来很准确,但出于错误的原因——这种现象称为捷径学习。与其学习疾病的复杂特征,模型可能会依赖于数据中的无关但更容易识别的线索。

想象两个医院病房:一个使用扫描仪A治疗严重COVID-19患者,另一个使用扫描仪B治疗轻症患者。AI可能会学会将扫描仪A与严重疾病联系起来——不是因为它更好地理解了疾病,而是因为它捕捉到了扫描仪A特有的图像伪影。

现在想象一个使用扫描仪B的重病患者。模型可能会错误地将其分类为病情较轻——不是由于医疗错误,而是因为它学到了错误的捷径。

同样的推理错误也可能适用于种族。如果不同种族群体之间的疾病流行率存在差异,AI可能会最终学会识别种族而不是疾病——这可能带来危险的后果。

在心脏扫描研究中,研究人员发现,AI模型并没有真正关注心脏本身,因为在那里几乎没有与种族类别相关的可见差异。

相反,它从心脏以外的区域获取信息,如皮下脂肪和图像伪影——这些不需要的失真(如运动模糊、噪声或压缩)会降低图像质量。这些伪影通常来自扫描仪,会影响AI对扫描的解释。

在这项研究中,黑人参与者平均BMI较高,这意味着他们可能有更多的皮下脂肪,尽管这一点没有直接调查。一些研究表明,黑人在给定BMI的情况下倾向于有较少的内脏脂肪和较小的腰围,但有更多的皮下脂肪。这表明AI可能捕捉到了这些间接的种族信号,而不是任何与心脏本身相关的信息。

这很重要,因为当AI模型在不了解背景的情况下学习种族——或者说,反映种族不平等的社会模式——风险在于它们可能会强化或加剧现有的不平等。

这不仅仅是公平问题——这是安全问题。

解决方案

但有一些解决方案:

多样化训练数据:研究表明,使数据集更具代表性可以改善AI在各群体中的表现——而不损害其他人的准确性。

建立透明度:许多AI系统被认为是“黑盒子”,因为我们不知道它们是如何得出结论的。心脏扫描研究使用热图来显示哪些部分的图像影响了AI的决策,创建了一种可解释的AI形式,帮助医生和患者信任(或质疑)结果——这样我们可以发现它何时使用了不适当的捷径。

谨慎处理种族:研究人员和开发人员必须认识到,数据中的种族是一种社会信号,而不是生物学真理。需要慎重处理,以避免延续伤害。

AI模型能够发现即使是最训练有素的人眼也可能错过的模式。这就是它们如此强大——也可能是如此危险的原因。它们从我们这个同样有缺陷的世界中学习。这包括我们如何对待种族:不是作为科学现实,而是作为一种通过健康、机会和风险不平等地分配的社会视角。

如果AI系统学会了我们的捷径,它们可能会重复我们的错误——更快、更大规模且责任更少。当生命处于危险之中时,这是我们无法承受的风险。


(全文结束)

大健康
大健康