医疗行业需要在2025年加强对AI治理,ECRI研究所警告称。AI驱动的医疗技术风险在ECRI研究所年度医疗技术危害排名中位列第一。此外,家庭医疗设备的技术支持不足、第三方供应商的网络安全威胁以及未经授权的分销商提供的劣质或欺诈性医疗设备也上榜前十。
该名单基于用户报告的医疗设备错误、实验室测试和与提供者的对话编制而成。尽管安全研究所的报告主要关注医疗设备的风险(如补充氧气附近的火灾风险),但AI和网络安全分别排在前十名的第一位和第三位,表明软件对医疗行业的风险正在增加。
ECRI承认AI的成本节约和益处,但也指出医疗组织应密切关注算法的潜在偏见、幻觉和模型漂移。“过度信任AI模型并未能适当审查其输出可能导致不当的患者护理决策,”报告指出。“AI作为高级工具,可以为临床医生和医疗人员提供巨大的潜在价值,但前提是人类决策必须始终处于护理过程的核心。”
ECRI呼吁医院和卫生系统实施强有力的AI治理;然而,专家表示,通常只有大型学术医疗中心和其他资金充足的医疗机构才有能力持续监控AI的性能。小型和农村医疗机构可能因缺乏人员和预算来验证新AI技术的性能而在AI革命中落后。
医疗组织必须设定AI的期望值,定义目标,提供足够的治理,并充分准备数据以供算法使用,ECRI建议。在ECRI的十大危害名单中,排名第二的是家庭治疗中复杂医疗设备的操作,无论是通过家庭医院计划还是慢性病管理。ECRI指出,家庭护理患者的未满足技术支持需求可能导致设备设置不当和不熟悉设备。
医疗组织还应询问设备是否可由非临床专家使用,家中是否有物理或结构上的使用限制,以及患者或护理人员是否已接受适当的设备培训。
ECRI将易受攻击的技术供应商和网络安全威胁列为第三大危险医疗技术。它提到了2024年2月对Change Healthcare(UnitedHealth Group的子公司)的网络攻击,这影响了整个行业的医疗索赔处理。ECRI警告称,依赖第三方供应商进行收入周期管理和电子健康记录可能会给医疗组织带来风险。如果第三方供应商受到攻击或被破坏,医疗组织可能会面临暂时中断服务或泄露敏感健康数据的重大风险。
ECRI敦促医疗组织彻底审查第三方供应商并评估安全风险。
(全文结束)


