设想一个AI模型只需通过心脏扫描就能推断你所属的人种分类,即使它未被明确告知何为种族概念。这听起来像是科幻小说,但近期发表于《对话》的研究证明确有其事。
我与团队近期研究发现,AI模型仅通过分析心脏影像,就能以高达96%的准确率判断患者是否为黑人或白人,即使训练数据未包含任何种族信息。
这一发现挑战了人们对AI客观性的假设,揭示了更深层问题:AI系统不仅反映世界,更会吸收并复制数据中根植的偏见。
种族是社会建构,不是生物分类
现代遗传学早已证明,所谓"种族"内部的基因差异远大于群体之间。种族是社会基于表型特征和祖先构建的分类标签,这些分类无法准确对应生物学特征,却深刻影响着人们的生活体验和医疗资源获取。
尽管如此,许多AI系统仍在学习这些社会标签,因为它们的数据基础正是将种族视为生物事实的世界所产生的。
医疗AI的双刃剑效应
当前医疗AI已能分析胸片、解读心脏扫描,在某些场景诊断速度远超人类医生(如从数分钟缩短至数秒)。医院采用这些工具提升效率的同时,也潜藏着新的风险。
AI系统的非中立性体现在:
- 数据不平衡:若训练数据以白人患者为主,系统对深肤色患者的疾病检测准确率可能下降
- 捷径学习:模型可能依赖与疾病无关的图像特征(如扫描设备型号)做判断
- 陈旧偏见:研究发现某些模型仍在复现"黑人皮肤更厚"等错误医学观念
心脏扫描研究的关键发现
我们发现AI并非通过心脏本身差异判断种族(心脏结构在种族间的可视化差异极少),而是利用了以下信号:
- 皮下脂肪分布(研究显示BMI相同的黑人群体可能具有更多皮下脂肪)
- 图像伪影(如运动模糊、噪点等扫描仪特异性特征)
这提示AI捕捉的是社会不平等的影像学表征,而非生物本质差异。
致命风险与解决方案
当严重患者使用非训练数据中的扫描设备时,AI可能误判其病情。这种偏见不仅关乎公平,更直接影响生命安全。
我们提出三大解决方案:
- 数据多元化:确保训练集涵盖不同族群,既能提升整体准确性又能减少偏见
- 可解释性增强:通过热力图可视化AI决策依据(如本研究方法),帮助医生评估判断合理性
- 谨慎处理种族标签:研究者需认识到数据中的种族是社会信号而非生物真相
AI的强大源于它能发现人类忽视的模式,但这把双刃剑也意味着它会放大我们的系统性缺陷。当它学会我们的"捷径",就会以更快的速度、更大的规模重复错误,而医疗决策的失误代价可能是生命。
【全文结束】


