AI如何对抗医疗领域的性别偏见
Explained: How AI Can Fight Sex And Gender Bias In Healthcare
从辅助医生诊断到建议先进治疗,人工智能(AI)正在改变医疗和医药领域。然而,AI主要由男性开发,基于优先考虑男性身体和健康需求的数据集。这意味着许多AI模型充满了性别和性偏见——对女性以及非二元性别患者构成了健康风险。近年来,医学中的这些偏见引起了广泛关注,那么AI是否会加剧现有的医疗不平等,还是可以被利用来帮助弥合这一差距?
有偏见的数据
AI的质量完全取决于输入其底层机器学习算法的大型数据集的质量。如果数据排除或低估了全球人口的相关部分,错误的AI可能会带来严重的健康风险——从漏诊到影响医学影像的解释,再到错误的干预建议。问题始于AI软件语言编码中的性别偏见。男性刻板印象渗透到AI中——从选项模糊时默认使用男性代词“他”,到威胁诊断和治疗的医疗应用。例如,在精神病学领域,当男性描述创伤症状时,他们更有可能被诊断为创伤后应激障碍(PTSD),而描述相同症状的女性则有更高的风险被诊断为人格障碍。这种性别偏见不仅会影响女性获得医疗服务的机会,还会影响她在医疗系统中的管理——而这种偏见似乎在AI模型中得到了复制。2020年美国的一项研究发现,用于精神病学的自然语言处理AI模型表现出显著的性别偏见。该研究论文发表在《PLoS One》上,警告称,如果AI模型主要基于白人男性的数据进行训练,那么在筛查心理病理或自杀倾向时会犯错误,因为语言受到性别的影响。男性和女性表达自杀痛苦的方式不同,例如。重要的是,对这些问题的认识正在增加,避免偏见的举措也在出现——通常由女性推动,如巴塞罗那超级计算中心的Bioinfo4women-B4W项目。这个例子也提醒我们,关于AI中偏见和性别化语言的考虑必须超越英语,以便在全球范围内与AI开发相关。
包容性设计的机会
但关注点并不仅仅停留在语言层面。如果连基本的身体结构在AI开发中都没有被考虑进去,会怎么样?随着AI扩展到安全产品设计中,我们有了前所未有的机会,通过设计适应人类身体(女性和男性)的功能来制造更好的产品。平均女性和男性身体的比例差异意味着我们不能简单地从一个比例缩放到另一个。这一点在COVID疫情期间尤为明显,当时佩戴个人防护装备(PPE)成为强制要求。尽管全球约70%的医护人员是女性,但PPE的设计却围绕着男性身体。加拿大的一项调查显示,不合身的PPE不仅未能提供足够的保护,而且过大的、不合身的装备还构成了显著的事故风险。需要更多关于这一主题的研究,但研究人员已经提出了构建AI设计的PPE。确保在PPE设计中考虑性别特征,有望提高安全性。
向正确的方向迈进
AI辅助临床诊断的准确性完全依赖于基础数据集的稳健性。如果不主动考虑历史数据集中的性别和性偏见,AI可能会导致漏诊或误诊。幸运的是,调整这些偏见似乎能带来更好的医疗结果。例如,传统的心脏病发作风险评估评分——全球急性冠状动脉事件注册(GRACE),在2022年进行了更新,纳入了考虑性别特异性疾病特征的AI预测模型。这一更新彻底改变了该评估工具的性能。成功的原因在于分别分析男性和女性数据——这引导更多女性患者接受早期干预,帮助克服患者管理中的结构性偏见。一个旨在解决和减少性别偏见的AI模型的实际例子是SMARThealth Pregnancy GPT。这个工具由乔治全球健康研究所开发,旨在改善印度农村和偏远社区女性获得基于指南的孕期建议的途径。概念是开发一个情境敏感且临床准确的大语言模型聊天机器人——同时避免固化有害的刻板印象。乔治研究所团队与社区卫生工作者、临床医生和生活在农村社区的女性密切合作,共同创建和改进工具的算法。临床医生还对AI生成的答案在准确性、适合社区卫生工作者的程度、完整性和偏见风险方面进行了评分,这有助于改进聊天机器人的响应。这个聊天机器人展示了AI在增强卫生工作者能力、提升资源有限地区的健康教育方面的潜力——同时避免偏见,促进女性权益。性别敏感的AI开发同样可以改善无数其他依赖数据多样性和完整性以确保准确性的医疗技术:例如,定制个性化治疗;预测治疗反应;执行某些机器人辅助手术;远程监测患者;虚拟医疗保健;加速药物发现。近年来,推进医疗中性别和性平等的倡议也开始出现。它们包括新成立的澳大利亚医疗和医学性别平等中心和英国医学科学性别平等计划。这些项目积极倡导在从发现到转化研究的各个阶段常规考虑性别和性,包括AI应用,以确保科学严谨性,为推进医疗和护理奠定坚实基础。AI是医疗的未来,我们不能重蹈覆辙,因忽视性别和性而再次犯下健康不平等的错误。是时候编程AI,引领我们走向道德的未来。
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。
本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。