明尼苏达大学研究揭示美国医院在AI医疗工具偏见评估上的不一致性University of Minnesota Study Highlights Inconsistencies in AI Healthcare Tools' Bias Assessment Across U.S. Hospitals

环球医讯 / AI与医疗健康来源:hoodline.com美国 - 英语2025-01-10 05:00:00 - 阅读时长2分钟 - 623字
明尼苏达大学公共卫生学院的研究揭示了美国医院在人工智能(AI)医疗工具的偏见评估方面存在显著差异,尽管许多医院已采用AI技术,但对其潜在偏见的审查仍然非常不一致,这可能加剧数字鸿沟并影响患者安全和公平治疗。
明尼苏达大学AI医疗工具医院偏见评估不一致性人工智能医疗保健预测模型数字鸿沟患者安全定制模型资源差距
明尼苏达大学研究揭示美国医院在AI医疗工具偏见评估上的不一致性

最近,明尼苏达大学公共卫生学院的研究成果引起了广泛关注,该研究揭示了人工智能(AI)给医疗保健带来的差异。根据研究报告,美国各地的许多医院正在将AI融入其运营中,然而这些工具在偏见评估方面的审查却惊人地不一致。

该研究基于美国医院协会年度调查,涵盖了2,425家医院的经验,表明AI辅助预测模型已被广泛应用,例如用于预测住院患者的健康轨迹及管理诸如账单和调度等行政工作流程。然而,在评估这些模型是否存在偏见时,统计数据却大幅下降。虽然有61%的医院对其预测模型进行了准确性评估,但只有44%的医院主动检查了这些系统中可能存在的偏见。

资源差距似乎是导致不同医院对AI采取不同态度的核心问题。拥有更雄厚财力和技术能力的医院不仅拥有更多的AI系统,而且会更频繁地对其进行严格评估,而依赖现成解决方案的医院则不然,这或许反映出了一种内在的数字鸿沟。“医院之间的数字鸿沟日益扩大,威胁到公平治疗和患者安全。”该研究的主要作者、公共卫生学院助理教授Paige Nong在接受明尼苏达大学采访时指出,她强调了富裕机构可以负担得起定制模型并进行内部严格评估,而较不富裕的机构则难以做到这一点。

未来,研究团队计划进一步探讨医院中AI应用(如环境记录员和聊天机器人)的普及情况,并通过与多样化组织的合作,提供能够影响AI在医疗环境中政策和最佳实践制定的见解。这项研究得到了美国卫生与公众服务部技术政策助理部长办公室的支持,这也表明了该研究的重要性。


(全文结束)

大健康
大健康