根据周一发表在《Health Affairs》上的一项研究,大约65%,即1,696家接受调查的美国医院报告称,他们使用了与电子健康记录(EHR)系统集成的人工智能或预测模型。该研究使用了2023年美国医院协会年度信息技术补充调查的数据。
概要:
预测模型可以包括人工智能或机器学习组件。医院报告称,这些模型用于与护理相关的决策,例如预测患者的健康风险,也用于管理任务如账单和排班。然而,研究作者指出,更多医院需要使用自己的数据来检查这些模型的准确性和偏差。在报告使用预测模型的医院中,只有61%评估了模型的准确性,而仅44%使用本地数据评估了模型的偏差。
洞察:
随着监管机构制定新政策以解决医疗保健中AI的透明度和偏差问题,预测模型的应用受到了广泛关注。本周早些时候,食品药品监督管理局(FDA)发布了草案指南,解释开发者应在上市前提交中包含哪些信息,以确保AI设备的安全性和有效性。
前称为国家协调员办公室的技术政策助理部长于今年1月生效的一项最终规则要求健康IT公司提供有关决策支持工具的特定信息,例如模型验证方式及减少偏差的方法。该规则涵盖了不作为医疗器械监管的预测工具。
研究未显示有多少医院使用的预测模型属于医疗器械,但描述了技术的应用及其开发情况。这些工具最常用于预测住院患者健康轨迹或风险(92%),识别高风险门诊患者进行随访护理(79%),以及用于排班(51%)。约79%的医院表示其预测模型来自EHR开发商,59%使用其他第三方工具,略多于一半的医院报告使用自开发模型。
研究人员发现,开发自己模型的医院更有可能在当地评估模型的准确性和偏差。本地评估非常重要,因为某些数据集训练的模型在不同环境中可能无效或无用。算法偏差可能会加剧健康不平等,增加护理障碍或低估患者需求。
“令人担忧的是,56%的医院未报告评估已部署模型的偏差,因此未能系统保护患者免受可能存在偏见或不公平的AI的影响。”研究人员写道。他们还警告不要认为行政工具的风险低于临床工具,因为研究表明大多数患者对用于预测账单支付或错过预约的模型感到不安。
研究的一个局限性是,对AI潜力的兴奋和对算法偏差的担忧可能导致医院夸大其AI模型的使用或评估情况。作者总结道,资源较少的独立医院需要支持以确保使用准确和无偏见的AI,且目前不在联邦监管范围内的自开发模型的增长和广泛影响可能需要进一步考虑。
(全文结束)


