一组研究人员对人工智能(AI)和预测分析模型进行了详细分析,得出结论:虽然一些医院和健康系统的领导正在努力确保模型的准确性和防止偏差,但许多机构尚未在此方面进行严格的工作。研究人员——Paige Nong、Julia Adler-Milstein、Nate C. Apathy、A. Jay Holmgren 和 Jordan Everson 在《Health Affairs》1月刊上详细描述了他们对医院和健康系统领导在患者护理组织中实施AI的程序和协议的分析。
文章摘要《美国医院中人工智能和预测模型的当前使用和评估》指出:“为了确保预测模型的公平性、适当性、有效性、有效性和安全性(FAVES),特别是在由人工智能(AI)和机器学习驱动的模型中,需要对这些模型进行有效的评估和治理。”研究人员写道,“我们分析了2023年美国医院协会年度信息技术补充调查的数据,以确定医院如何使用和评估AI及预测模型的准确性和偏差。”
医院使用AI和预测模型来预测住院患者的健康轨迹或风险,识别高风险门诊患者以指导后续护理,监测健康状况,推荐治疗方案,简化或自动化账单程序,并促进排班安排。研究结果显示,65%的美国医院使用预测模型,其中79%的模型来自其电子健康记录开发商。61%使用模型的医院通过本地数据对其进行了准确性评估,但只有44%报告了对偏差的本地评估。
这一问题非常重要,研究人员指出,在努力达到“FAVES”标准的过程中,“偏差是一个核心关注点,越来越多的经验分析揭示了算法中存在的种族和其他形式的偏差,这些偏差加剧或恶化了不平等现象,阻碍了所需护理的获取,延续有害的基于种族的医学实践,或低估了患者群体的代表性。”同时,“模型的准确性也是一个问题,因为医疗实践、数据捕获和患者群体存在差异。”研究人员强调,“在不同环境中部署的AI,如果训练数据集与实际应用场景不同,可能会无效或缺乏价值。”
研究团队还发现,尽管更多医院报告了对准确性的本地评估,但仍有超过三分之一的医院未能提供准确性的保证。令人担忧的是,56%的报告医院未对偏差进行评估。正如文章作者所述,“使用2023年的全国数据,我们确定了AI和预测模型在美国医院中的使用、应用和评估情况。我们发现,尽管大多数美国医院报告使用预测模型,但少于一半的医院系统地评估了模型的偏差,只有三分之二的医院评估了其准确性。我们的研究结果表明,需要为独立和资源不足的医院提供额外的指导和支持,以确保无论患者在哪里接受护理,都能使用准确且无偏差的AI。同样,目前不受联邦监管的提供商自开发模型的增长和广泛影响也需要进一步考虑。”
研究人员并不主张实施重大且可能抑制创新的法规;相反,他们认为,“有针对性的政策可以支持FAVES AI的可用性,并增强评估和管理AI的能力,包括旨在连接资源不足的医院与评估能力的干预措施。”
(全文结束)


