AI给予女性和少数族裔更差的医疗服务Are Biased AI Models a Threat to Fair Healthcare?

环球医讯 / AI与医疗健康来源:knowtechie.com美国 - 英语2025-09-23 06:03:50 - 阅读时长2分钟 - 692字
麻省理工学院等机构最新研究显示,医疗领域应用的AI模型延续了传统医学研究中的性别与种族偏见,导致女性患者常被建议"在家自我管理"而得不到充分治疗,非裔心理健康需求遭系统性忽视,且GPT-4等主流模型会基于人口统计数据而非实际症状推荐更昂贵医疗程序,随着谷歌Med-Gemini等工具加速进入医院,这些隐藏在算法中的数十年医疗偏见可能直接危及患者生命,凸显出在部署前进行强制性偏见审计的必要性。
AI医疗服务女性少数族裔医疗偏见大型语言模型医疗建议刻板分类同理心患者护理
AI给予女性和少数族裔更差的医疗服务

人工智能可能是现代医学的闪亮新工具,但已暴露出一些陈旧而丑陋的习性。

《金融时报》最新报告显示,医疗领域使用的AI模型正悄然延续数十年医学研究中固有的偏见,这些偏见历史上长期将女性和有色人种排除在外。多年来,临床试验和科学研究过度依赖白人男性受试者,导致生成的数据集仅反映人类群体的局部特征。

令人震惊的是:当这些失衡数据输入AI系统后,输出结果自然难以公平。(来源:Gizmodo

麻省理工学院研究人员近期测试了包括OpenAI的GPT-4和Meta的Llama 3在内的大型语言模型,发现它们更倾向于为女性患者提供较少的医疗建议,经常指示女性患者简单地"在家自我管理"。且问题不仅限于通用聊天机器人。即便专为医疗设计的Palmyra-Med模型也呈现出同样令人担忧的模式。

在伦敦,研究人员针对谷歌Gemma模型的研究发现,该模型对女性需求的重视程度低于男性。《柳叶刀》另一篇论文报告称,GPT-4会惯常基于种族、性别和族裔对患者进行刻板分类,有时仅依据人口统计数据而非实际症状推荐更昂贵的医疗程序。面对有色人种的心理健康问题时,AI始终缺乏应有的同理心。

这远非技术故障。谷歌、Meta和OpenAI等科技巨头正急于将AI工具引入医院,而这里的赌注关乎生命而非点赞数。今年早些时候,谷歌的Med-Gemini甚至虚构了一个身体部位,这种错误至少容易察觉;而偏见却以更隐蔽的方式潜伏其中。

随着AI在患者护理中扮演日益重要的角色,问题日益凸显:当算法悄然回荡数十年的医疗偏见时,医生能否及时察觉?因为没有任何人应该在急诊室就诊时才遭遇这种偏见。

【全文结束】