探索个性化医学中人工智能的性别偏见:与跨性别群体成员的焦点小组研究Exploring Gender Bias in AI for Personalized Medicine: Focus Group Study With Trans Community Members

环球医讯 / AI与医疗健康来源:www.jmir.org西班牙 - 英语2025-08-01 11:01:22 - 阅读时长3分钟 - 1161字
本研究通过西班牙跨性别群体的焦点小组讨论,揭示了人工智能在个性化医学中的性别偏见问题。研究发现跨性别群体面临医疗数据缺乏针对性、算法性别二元化、医疗专业人员知识不足等挑战,提出通过社区主导数据收集、增强算法透明度、建立伦理框架等解决方案。研究强调人工智能需具备性别包容性,以弥合医疗差距并提升跨性别群体生活质量,为医疗AI设计提供重要参考。
个性化医学人工智能性别偏见跨性别群体健康医疗数据算法设计专业培训误诊风险解决方案
探索个性化医学中人工智能的性别偏见:与跨性别群体成员的焦点小组研究

探索个性化医学中人工智能的性别偏见:与跨性别群体成员的焦点小组研究

摘要

本研究通过西班牙跨性别群体的焦点小组讨论,探讨人工智能(AI)在个性化医学中的应用及其面临的性别偏见问题。研究发现,跨性别群体在医疗数据收集、算法设计和专业培训中面临系统性挑战:1)跨性别医疗数据严重缺失导致误诊风险;2)二元性别算法模型加剧身份误判;3)医疗从业者专业知识不足。参与者提出三项解决方案:建立跨性别主导的医疗数据库、开发包容性AI应用、完善性别多样性培训体系。研究强调,AI技术必须突破二元性别框架,将跨性别视角纳入医疗系统设计。

方法

研究采用沟通方法论(communicative methodology),通过平等对话确保跨性别群体全程参与。研究团队与西班牙PRISMA协会合作,制定三轮焦点小组方案,最终16名跨性别参与者完成讨论。数据分析采用ATLAS.ti编码系统,重点分析个性化医疗和AI技术两大领域,提炼出医疗护理、药物使用、数据偏见等核心编码类别。

结果

主要障碍

  1. 医疗研究缺口:跨性别医疗数据缺失导致严重误诊案例。例如某跨性别女性的医疗记录错误标注性别,导致激素治疗方案偏差。参与者强调需要建立专门针对跨性别人群的药物反应数据库。
  2. 算法偏见:语音识别技术存在二元性别刻板印象。某跨性别女性在使用语音女性化软件时,系统仍将其识别为男性。应用程序界面设计中粉色/蓝色二元色彩编码引发跨性别群体强烈反感。
  3. 专业能力不足:医疗从业者对跨性别健康需求认知有限。部分医生将跨性别者的血液检测结果错误判定为贫血,未考虑激素治疗的正常生理变化。

关键解决方案

  1. 数据包容性:建议开发包含跨性别健康指标的专用数据库。例如某跨性别女性指出需建立激素水平动态跟踪系统,实现医疗自主预约。
  2. 算法透明化:推动社区主导AI开发。参与者建议将跨性别群体纳入医疗AI设计团队,如某应用通过用户语音样本持续优化性别识别算法。
  3. 伦理框架:建立反偏见医疗体系。PRISMA协会主导的TRANSIT项目显示,持续专业培训可显著提升医疗服务质量。

讨论

研究揭示的挑战与现有文献高度吻合:1)全球医疗AI普遍存在二元性别算法缺陷;2)跨性别数据收集缺乏标准化;3)技术偏见加剧医疗不平等。本研究创新性在于提出"三支柱"解决方案:开发包容性健康应用(技术层)、建立信任机制(制度层)、促进社群互助网络(社会层)。这些发现与《联合国人工智能伦理建议》等国际规范相呼应,但指出现行法规对跨性别群体保护存在显著漏洞。

政策建议

  1. 强制要求医疗AI开发纳入跨性别视角
  2. 建立LGBTIQ+群体算法偏见专项审查机制
  3. 推行医疗科技从业者跨性别健康必修课程
  4. 创建保护隐私的性别多元医疗数据基础设施
  5. 资助社区主导型数字健康研究项目

【全文结束】

大健康
大健康