大型研究揭示AI医疗偏见Major study shines spotlight on AI healthcare bias

环球医讯 / AI与医疗健康来源:www.theengineer.co.uk英国 - 英语2024-12-20 00:00:00 - 阅读时长2分钟 - 725字
一项涉及350多名专家的重大研究揭示了AI在医疗应用中的偏见问题,并提出了增加透明度的建议,以确保AI系统的公平性和代表性。
AI医疗偏见STANDINGTogether医疗数据集数据多样性健康公平少数群体AI系统表现透明度
大型研究揭示AI医疗偏见

一项重要的新研究探讨了在医疗保健中使用AI所固有的偏见问题,并提出了增加透明度的建议。这项名为“STANDING Together(数据多样性、包容性和泛化性的标准)”的研究发表在《柳叶刀数字健康》和《NEJM AI》上,涉及来自58个国家的350多名专家。STANDING Together由伯明翰大学医院NHS基金会信托和伯明翰大学的研究人员领导。

新的建议旨在确保用于训练和测试医疗AI系统的数据集能够代表技术将应用于的所有人群。这是因为当某些群体在数据集中未得到充分代表时,AI系统往往表现不佳。少数群体尤其容易在数据集中被低估,因此可能受到AI偏见的不成比例影响。

“数据就像一面镜子,反映出现实,”首席研究员、伯明翰大学AI和数字健康技术副教授刘晓博士说,“当数据失真时,它会放大社会偏见。但试图通过修复数据来解决问题,就像试图擦掉镜子上的污渍来去除衬衫上的污渍一样。”

为了在健康公平方面创造持久的变化,我们必须关注修复源头,而不仅仅是表面现象。

报告中提出的建议包括:

  • 鼓励使用适当且能全面代表社会所有群体(包括少数群体和服务不足群体)的医疗数据集开发医疗AI;
  • 帮助发布医疗数据集的任何人识别数据中的任何偏见或局限性;
  • 使开发医疗AI技术的人能够评估数据集是否适合他们的目的;
  • 定义如何测试AI技术,以确定它们是否存在偏见,从而在某些人群中表现不佳。

“拥有透明且具代表性的数据集对于支持AI的负责任和公平发展及使用至关重要,”NHS英格兰AI副主管多米尼克·库什南表示。“随着我们充分利用AI工具的潜力,STANDING Together的建议非常及时,NHS AI实验室全力支持采用这些实践以减轻AI偏见。”


(全文结束)

大健康
大健康