临床决策支持工具已成为许多医院的常规配置,帮助临床医生识别严重疾病的早期迹象、标记潜在病情恶化并减少医疗错误。
但随着人工智能在临床工作流程中日益深入应用,一位专家正敦促医疗机构密切关注一个新兴的安全隐患:算法漂移。
弗吉尼亚州夏洛茨维尔市弗吉尼亚大学医疗系统(UVA Health)下属弗吉尼亚大学社区健康中心(UVA Community Health)的首席质量官吉娜·劳迪(Gena Lawday,BSN,RN)表示,她担心随着医院越来越多地采用用于脓毒症预警、分诊、影像优先排序和风险评分的人工智能驱动工具,这些模型的准确性可能随时间推移而下降。
“当患者人群发生变化、文档记录习惯改变或适应AI渗入诊疗过程时,这些模型存在失去准确性的风险,”她说道。
由于许多模型基于历史数据进行训练,此类变化可能难以察觉。随着患者人群或护理实践的演变,这些模型可能变得可靠性降低。
“危险之处在于这种退化可能很微妙,”劳迪女士表示。“临床医生不一定能看到明显的故障,而只是可靠性逐渐下降,可能导致漏诊病情恶化或进行不必要的检查——这些都是我们试图避免的情况。”
她的担忧源于医院领导者加速采用AI工具的趋势。最近一项Black Book市场研究调查显示,88%的医院高管计划在2026年增加对临床决策支持的人工智能和高级分析投资。用于临床决策支持(CDS)和风险分层的AI是提及频率最高的优先领域之一。
为管理这些风险,劳迪女士建议各机构明确指定责任人,对临床护理中使用的人工智能工具进行持续监控。
“与药物或设备不同,大多数机构可能没有明确定义的AI持续监控责任人,”她表示。“应建立及早检测漂移的流程,确保这些工具保持安全和可信。”
【全文结束】


