我如何在我的公司解决种族偏见How I addressed racial bias in my company’s AI algorithm

环球医讯 / AI与医疗健康来源:www.statnews.com美国 - 英语2024-11-13 17:32:00 - 阅读时长2分钟 - 849字
本文作者分享了她在生成式AI驱动的医疗保健公司中解决算法种族偏见的经验和方法
种族偏见医疗系统算法患者护理生成式AI数据多样化透明度持续监测多元化团队用户反馈
我如何在我的公司解决种族偏见

几年前,学者团队发布了开创性的研究,指出美国主要医疗系统中用于指导患者护理的算法存在种族偏见。这些研究表明,这些算法在多个医疗类别中对黑人和拉丁裔患者的护理产生了不利影响。例如,研究人员发现,用于识别更复杂的患者以提供额外护理的预测算法中存在种族偏见,导致黑人患者比白人患者更难获得额外护理。

当时关于新冠疫情的报道掩盖了这些发现,但最近STAT系列报道《嵌入式偏见》再次将这一问题置于聚光灯下。总体结论是:算法不能被信任来做出关于患者护理的安全和公平决策。

鉴于生成式AI的兴起,这一时机至关重要。制药公司、医疗服务提供组织和健康保险公司正被AI公司的推销淹没,这些公司承诺从创建营销材料到医生预约后的患者就诊记录起草,都能实现自动化。

我是basys.ai的联合创始人兼首席执行官,这是一家生成式AI驱动的医疗保健公司。几年来,我一直致力于使AI更加可信。我认为,解决算法中的种族偏见不仅是道德责任,也是商业上的明智之举。以下是我们在公司内部采取的一些措施:

  1. 数据多样化:我们确保训练模型的数据集尽可能多样化,包括来自不同种族背景的患者数据。这有助于减少模型中的偏见,使其更公平地服务于所有患者。
  2. 透明度:我们公开披露算法的工作原理和数据来源,以便外部专家可以审查和验证。这种透明度不仅增强了用户的信任,也有助于及时发现和纠正潜在的偏见。
  3. 持续监测:我们定期评估算法的表现,特别是在不同种族群体中的表现。通过持续监测,我们可以迅速发现并解决任何新的偏见问题。
  4. 多元化团队:我们组建了一个多元化的团队,成员来自不同的文化背景和专业领域。这种多样性有助于我们在设计和开发过程中考虑到各种视角,从而减少偏见。
  5. 用户反馈:我们积极收集和分析用户反馈,特别是那些来自少数族裔社区的反馈。这有助于我们了解算法在实际应用中的表现,并进行必要的调整。

通过这些措施,我们希望不仅能够在技术上取得进展,还能在社会公正方面做出贡献。我相信,只有当AI真正为所有人服务时,它才能实现其最大的潜力。


(全文结束)

大健康
大健康