2025年医疗技术十大隐患清单:AI风险居首Dangers of AI tops health tech hazards list for 2025

环球医讯 / AI与医疗健康来源:healthjournalism.org美国 - 英语2024-12-14 06:00:00 - 阅读时长4分钟 - 1622字
根据非营利患者安全组织ECRI发布的2025年医疗技术十大隐患清单,未经适当监管的人工智能(AI)模型在医疗环境中的应用是最主要的隐患,其次是家庭护理患者的未满足技术支持需求和技术供应商及网络安全威胁。
2025年医疗技术隐患AI风险家庭护理技术支持网络安全威胁医疗设备患者安全ECRI
2025年医疗技术十大隐患清单:AI风险居首

据非营利患者安全组织ECRI称,2025年医疗技术最显著的隐患是在医疗环境中使用未经适当监管的人工智能(AI)模型。该组织第18年度的医疗技术十大隐患报告中,家庭护理患者的未满足技术支持需求和技术供应商及网络安全威胁分别位列第二和第三位。

虽然完整的文件仅对ECRI成员开放,但记者可以下载一份总结主要亮点的执行摘要。这份报告为医疗记者提供了一个很好的入门指南,列出了需要密切关注的问题,并可以成为丰富的故事来源。报告识别了潜在的危险源,这些危险源被认为是需要最大关注的,并提供了减少风险的建议。

ECRI 2025年医疗技术十大隐患

  1. AI辅助医疗技术的风险。
  2. 家庭护理患者的未满足技术支持需求。
  3. 脆弱的技术供应商和网络安全威胁。
  4. 不合格或欺诈性的医疗设备和用品。
  5. 使用补充氧气区域的火灾风险。
  6. 麻醉机上的默认报警限值过低。
  7. 临时暂停药物订单的不当处理。
  8. 输液线管理不善导致的感染风险和绊倒危险。
  9. 医用粘合产品的皮肤损伤。
  10. 输液系统事件调查不完整。

ECRI根据会员调查的回应、文献回顾、实验室对医疗设备的测试以及患者安全事件的调查编制了该清单。

AI的危险

尽管AI有望提高医疗诊断和治疗的效率和精确度,但作者指出,存在可预防的危害。训练AI模型的数据中存在的偏见可能导致不同的健康结果或不适当的反应。此外,AI系统可能会产生“幻觉”,即对某些提示做出虚假响应,其性能也可能随时间恶化。

作者表示,AI作为协助临床医生和医护人员的工具具有“巨大的潜在价值”,但前提是人类决策必须始终处于护理过程的核心。“对AI模型过度信任——未能适当地审查其输出——可能导致不适当的患者护理决策,”他们在执行摘要中写道,“利用AI改善患者护理要求组织明确目标,评估和管理风险,评估选项,制定有效的实施计划,管理期望,并监控性能以发现随时间恶化的迹象。”

家庭护理技术支持

关于第二项,家庭护理患者的未满足技术支持需求,作者指出,在家中提供护理有“独特的问题”,特别是当患者或家属负责操作复杂的医疗设备如输液泵、呼吸机或透析机时。ECRI的主要项目工程师Priyanka Shah在12月5日的一次网络研讨会上讨论报告的发现时表示,越来越受欢迎的家庭护理模式将传统上在临床监督下使用的机器带入家庭环境。

“最终用户不同,”她说,“这些是现在负责维护设备、排除故障、设置设备等的患者、护理人员或普通用户。”医疗机构提供这些项目的需要选择符合患者需求、能力和环境的设备,Shah说。他们还应确保说明以患者首选的语言提供且易于理解。患者还应接受如何使用设备的口头和视觉培训。理想情况下,Shah说,最终用户应有机会练习使用设备。

忽视这些做法可能导致错误、护理延迟和其他由未解决的设备故障引起的危害,作者写道。ECRI遇到了许多因家庭环境中医疗设备设置不当或缺乏熟悉而导致的“患者伤害”案例。

网络安全威胁

脆弱的技术供应商和网络安全威胁是第三个值得关注的问题。如今,许多医疗系统使用并依赖外部供应商托管的技术产品,这可能包括从预约和账单服务到电子健康记录或其他程序的任何内容。虽然使用第三方工具有很多好处,但作者表示,医院运营可能会因针对供应商的网络攻击、数据泄露或服务中断而受到威胁。

例如,2024年2月对Change Healthcare的攻击,该公司是全国最大的保险账单和支付清算所之一。这次攻击严重影响了其在全国范围内的医院、诊所和药店客户的运营。

作者表示,医疗保健组织可以通过在服务采购过程开始时彻底审查供应商、进行模拟演练以了解在特定程序或服务离线时如何继续医疗保健流程,以及制定恢复潜在事件的程序来尝试减轻这些风险。“企业往往只关注影响其行业公司的数据泄露事件,”ECRI副总裁兼信息安全官Kallie Smith在网络研讨会上说,“看待网络安全事件和一般IT事件的最佳方式是假设任何类似的事情都可能发生在任何类型的组织中。”


(全文结束)

大健康
大健康