大型研究揭示AI医疗偏见Major study shines spotlight on AI healthcare bias

环球医讯 / AI与医疗健康来源:www.theengineer.co.uk英国 - 英语2024-12-19 18:00:00 - 阅读时长2分钟 - 714字
一项涉及350多名专家的研究揭示了AI在医疗应用中的偏见问题,并提出了增加数据多样性、包容性和泛化性的标准,以确保AI系统的公平性和代表性。
AI医疗偏见数据多样性包容性泛化性少数群体健康公平数据集透明度柳叶刀数字健康NEJMAI
大型研究揭示AI医疗偏见

一项关于AI在医疗中固有偏见的重要新研究提出了增加透明度的建议。这项名为“STANDING Together(数据多样性、包容性和泛化性的标准)”的研究发表在《柳叶刀数字健康》和《NEJM AI》上,涉及来自58个国家的350多名专家。STANDING Together由伯明翰大学医院NHS基金会信托和伯明翰大学的研究人员领导。

新的建议旨在确保用于训练和测试医疗AI系统的数据集能够代表技术将要服务的所有人群的全面多样性。这是因为AI系统通常在未充分代表的数据集中表现不佳。少数群体的人尤其容易在数据集中被低估,因此可能受到AI偏见的不成比例影响。

“数据就像一面镜子,反映了现实,”首席研究员、伯明翰大学AI和数字健康技术副教授刘晓博士说,“当数据失真时,它会放大社会偏见。但试图通过修正数据来解决问题,就像试图擦掉镜子上的污渍来清除衬衫上的污渍一样。”

为了在健康公平方面创造持久的改变,我们必须专注于修复源头,而不仅仅是表面现象。”

报告中提出的建议包括:

  • 鼓励使用适当且能全面代表社会所有成员(包括少数群体和服务不足群体)的医疗数据集开发医疗AI。
  • 帮助发布医疗数据集的任何人识别数据中的任何偏见或局限性。
  • 使开发医疗AI技术的人能够评估数据集是否适合其目的。
  • 定义如何测试AI技术,以确定它们是否存在偏见,从而在某些人群中表现不佳。

“我们必须拥有透明且具有代表性的数据集,以支持负责任和公平的AI开发和使用,”NHS英格兰AI副主管多米尼克·库什南说,“随着我们充分利用AI工具的潜力,STANDING Together的建议非常及时,NHS AI实验室全力支持采纳这些实践以减轻AI偏见。”


(全文结束)

大健康
大健康