新研究表明,美国医院在采用人工智能(AI)技术方面存在显著差异,不仅体现在AI的采纳上,还在于医院是否有足够的财务和技术能力来评估其AI工具的有效性和完整性。
据明尼苏达大学的一项最新研究显示,虽然大约三分之二的美国医院正在使用AI辅助预测模型,但只有44%的医院会评估这些模型是否存在偏见,这引发了对患者护理公平性的担忧。该研究由明尼苏达大学公共卫生学院进行,并发表在《Health Affairs》杂志上,分析了来自全国2,425家医院的数据。
研究强调了AI采用方面的不平等现象,指出拥有更多财务资源和技术专长的医院在开发和评估AI工具方面比资源匮乏的设施更具优势。
研究报告还发现,医院主要使用AI工具来预测住院患者的健康轨迹、识别高风险门诊患者以及优化排班。
明尼苏达大学公共卫生学院助理教授Paige Nong解释说,她目前研究的一个关键问题是,那些缺乏大量财务资源和技术专长的医院如何确保他们采用的AI工具能够满足特定患者群体的需求。
“我们不希望这些医院陷入两难境地,要么使用未经必要评估和监督的AI工具,要么完全不用这些工具,即使它们可以帮助解决一些重大组织挑战,”她说。
Nong提到,使用预测模型标签中提供的信息是一个步骤,这些标签由技术政策助理部长在HTI-1规则中描述。这些标签为医院提供了关键信息,即使它们无法为自己的患者群体构建定制模型,也可以成为这些工具的批判性使用者。
“即使这些信息不易获得,医院也应向供应商索取这些信息,”Nong说。
她承认,在偏见评估方面还有很大的改进空间。“首先,进行我们在论文中讨论的本地评估是确保AI工具对所有患者都能良好运作的重要一步,”她说。“其次,查看驱动输出的预测因素也很有帮助。”
如果组织可以看到预测因素可能存在偏见——例如收入或宗教身份——它们就可以避免使用这些工具。
她补充说,仔细思考工具输出对患者的意义非常重要。“例如,如果一个模型预测了未出席预约的情况,那么围绕该工具的人类决策应该如何做到公平和伦理,而不是延续偏见?”她说。
Nong表示,她很高兴看到医疗专业人员如何弥合资金充足医院与资源匮乏医院之间的数字鸿沟,特别是在AI采用和评估能力方面。“在政策方面,我们在论文中描述了各种有价值的协作和合作伙伴关系,如区域扩展中心、AHRQ的患者安全组织等,”她说。
她指出,Health AI Partnership是致力于此类网络技术支持的组织之一。“在实践方面,IT专业人士可以与社区和专业协会或网络互动,确定资源匮乏的护理提供组织的需求,并提供重要的见解和支持,”Nong说。
(全文结束)


