AI医疗工具对女性及少数群体提供更差治疗
AI Medical Tools Provide Worse Treatment for Women and Underrepresented Groups
历史上,大多数临床试验和科学研究主要以白人男性为对象,导致女性和有色人种在医学研究中严重缺失。事实证明,当金融时报近期报道指出,医生使用的AI工具正因输入此类数据而产生更差的医疗效果——那些长期被忽视的群体正承受更糟糕的健康结果。
麻省理工学院研究人员近期论文显示,包括OpenAI的GPT-4和Meta的Llama 3在内的大语言模型"更可能错误地降低对女性患者的护理",女性比男性更常被建议"居家自我管理",最终在临床环境中获得更少治疗。尽管这些模型属于通用型而非医疗专用,但研究同时发现医疗专用大语言模型Palmyra-Med也存在类似偏见。伦敦经济学院对谷歌医疗AI模型Gemma(非旗舰产品Gemini)的分析同样表明,该模型生成的结果会"弱化女性需求",相较于男性患者。
先前研究已发现,AI模型在心理健康领域对有色人种的关怀程度低于白人患者。去年发表在《柳叶刀》的论文指出,OpenAI的GPT-4模型经常"对特定种族、民族和性别进行刻板印象",其诊断建议更多受人口统计特征而非症状驱动。论文结论强调:"模型生成的评估方案显示,人口属性与推荐昂贵医疗程序存在显著关联,且患者感知存在差异。"
这一问题在谷歌、Meta和OpenAI争相将工具引入医院的当下尤为严峻。医疗市场虽利润丰厚,但错误信息的后果极其严重。今年早些时候,谷歌医疗AI模型Med-Gemini曾因虚构人体器官登上新闻,这类错误医护人员尚可识别;但偏见往往更为隐蔽且不易察觉。当AI模型延续医学领域的长期刻板印象时,医生能否及时质疑?没有人该用亲身经历去验证这个答案。
【全文结束】
声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。
本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。