人工智能可能是现代医学的闪亮新工具,但已暴露出一些陈旧而丑陋的习性。
《金融时报》最新报告显示,医疗领域使用的AI模型正悄然延续数十年医学研究中固有的偏见,这些偏见历史上长期将女性和有色人种排除在外。多年来,临床试验和科学研究过度依赖白人男性受试者,导致生成的数据集仅反映人类群体的局部特征。
令人震惊的是:当这些失衡数据输入AI系统后,输出结果自然难以公平。(来源:Gizmodo)
麻省理工学院研究人员近期测试了包括OpenAI的GPT-4和Meta的Llama 3在内的大型语言模型,发现它们更倾向于为女性患者提供较少的医疗建议,经常指示女性患者简单地"在家自我管理"。且问题不仅限于通用聊天机器人。即便专为医疗设计的Palmyra-Med模型也呈现出同样令人担忧的模式。
在伦敦,研究人员针对谷歌Gemma模型的研究发现,该模型对女性需求的重视程度低于男性。《柳叶刀》另一篇论文报告称,GPT-4会惯常基于种族、性别和族裔对患者进行刻板分类,有时仅依据人口统计数据而非实际症状推荐更昂贵的医疗程序。面对有色人种的心理健康问题时,AI始终缺乏应有的同理心。
这远非技术故障。谷歌、Meta和OpenAI等科技巨头正急于将AI工具引入医院,而这里的赌注关乎生命而非点赞数。今年早些时候,谷歌的Med-Gemini甚至虚构了一个身体部位,这种错误至少容易察觉;而偏见却以更隐蔽的方式潜伏其中。
随着AI在患者护理中扮演日益重要的角色,问题日益凸显:当算法悄然回荡数十年的医疗偏见时,医生能否及时察觉?因为没有任何人应该在急诊室就诊时才遭遇这种偏见。
【全文结束】