人工智能为临床决策支持工具带来新风险AI brings new risk to clinical decision support tools 

环球医讯 / AI与医疗健康来源:www.beckershospitalreview.com美国 - 英语2025-12-20 00:10:52 - 阅读时长2分钟 - 724字
随着人工智能在临床工作流程中深度整合,弗吉尼亚大学社区健康中心首席质量官吉娜·劳迪警告医疗机构需警惕算法漂移这一新兴安全风险。当患者人群结构变化、医疗文档记录习惯调整或AI技术渗入诊疗环节时,基于历史数据训练的临床决策支持模型可能出现不易察觉的准确性退化,导致病情恶化漏诊或引发不必要的医疗检查,而88%的医院高管计划在2026年扩大AI投资背景下,专家强调必须设立明确责任人对AI工具实施持续监控,确保其安全可靠以避免临床决策失误。
健康人工智能临床决策支持工具算法漂移医疗错误脓毒症预警分诊影像优先排序风险评分持续监控
人工智能为临床决策支持工具带来新风险

临床决策支持工具已成为许多医院的常规配置,帮助临床医生识别严重疾病的早期迹象、标记潜在病情恶化并减少医疗错误。

但随着人工智能在临床工作流程中日益深入应用,一位专家正敦促医疗机构密切关注一个新兴的安全隐患:算法漂移。

弗吉尼亚州夏洛茨维尔市弗吉尼亚大学医疗系统(UVA Health)下属弗吉尼亚大学社区健康中心(UVA Community Health)的首席质量官吉娜·劳迪(Gena Lawday,BSN,RN)表示,她担心随着医院越来越多地采用用于脓毒症预警、分诊、影像优先排序和风险评分的人工智能驱动工具,这些模型的准确性可能随时间推移而下降。

“当患者人群发生变化、文档记录习惯改变或适应AI渗入诊疗过程时,这些模型存在失去准确性的风险,”她说道。

由于许多模型基于历史数据进行训练,此类变化可能难以察觉。随着患者人群或护理实践的演变,这些模型可能变得可靠性降低。

“危险之处在于这种退化可能很微妙,”劳迪女士表示。“临床医生不一定能看到明显的故障,而只是可靠性逐渐下降,可能导致漏诊病情恶化或进行不必要的检查——这些都是我们试图避免的情况。”

她的担忧源于医院领导者加速采用AI工具的趋势。最近一项Black Book市场研究调查显示,88%的医院高管计划在2026年增加对临床决策支持的人工智能和高级分析投资。用于临床决策支持(CDS)和风险分层的AI是提及频率最高的优先领域之一。

为管理这些风险,劳迪女士建议各机构明确指定责任人,对临床护理中使用的人工智能工具进行持续监控。

“与药物或设备不同,大多数机构可能没有明确定义的AI持续监控责任人,”她表示。“应建立及早检测漂移的流程,确保这些工具保持安全和可信。”

【全文结束】

大健康
大健康