2025年患者安全威胁排行榜中,“人工智能治理不足”位列第二‘Insufficient governance of AI’ is the No. 2 patient safety threat in 2025

环球医讯 / AI与医疗健康来源:radiologybusiness.com美国 - 英语2025-03-13 17:06:00 - 阅读时长3分钟 - 1073字
根据ECRI发布的最新年度十大患者安全威胁榜单,2025年“人工智能治理不足”被列为第二大患者安全威胁。该报告指出,尽管AI技术在医疗领域的应用带来了许多好处,但其潜在的风险也不容忽视,如数据偏差可能导致误诊和不当治疗。
2025年患者安全威胁人工智能治理不足医疗领域AI应用潜在风险治理政策ECRI榜单放射学安全问题
2025年患者安全威胁排行榜中,“人工智能治理不足”位列第二

“人工智能治理不足”在2025年的患者安全威胁中排名第二,这是ECRI于3月10日发布的最新榜单中的内容。

多年来,人工智能已经在医疗领域得到广泛应用,包括影像、临床决策支持和病历生成等。这些技术可以带来诸多益处,但也伴随着对患者和医护人员的潜在风险。这家前身为紧急护理研究所的非营利组织通过广泛的资料收集,编制了最新的年度十大榜单,旨在确定“最紧迫的患者安全威胁”。今年排名第一的是“忽视患者、家属和护理人员的担忧”。

ECRI在其报告中指出:“AI模型的质量取决于它们使用的算法和训练数据。如果AI模型基于不良数据,则会增加发生不良事件的可能性。由AI产生的医疗错误可能会危及患者安全,导致误诊和不适当的治疗决策,从而造成伤害甚至死亡。”

尽管存在这些风险,但在2023年的一项调查中,只有约16%的医院高管表示他们有系统性的AI使用和数据访问治理政策。ECRI指出,偏见是一个潜在的问题,基于有缺陷的数据进行训练的模型可能会加剧与种族、性别或社会经济地位相关的不平等现象。

“未能制定系统性的治理政策来评估、实施、监督和监测新的和现有的AI应用可能会增加医疗机构的责任风险,”报告中提到。“然而,制定能够适应快速变化的AI技术的政策可能具有挑战性。”

ECRI为放射科部门和实践提供了关于AI治理的一系列建议行动,分为四个类别:

  1. 文化、领导力和治理:可能的应对措施包括制定政策、成立委员会评估新技术、确保组织遵守联邦和地方法律、培训员工了解AI政策,并定期评估结果。
  2. 患者和家庭参与:向患者披露AI的使用情况并获得他们的同意,征求反馈意见,并让患者和家庭咨询委员会帮助教育有关生成式AI的使用。
  3. 工作人员的安全和福祉:在实施新的AI技术时评估临床工作流程,定期评估用户体验,并认真对待工作人员的安全问题。
  4. 学习系统:实施强大的AI相关事件报告系统,强调员工在质疑AI辅助决策时应依赖自己的临床判断,并教育团队成员如何识别错误或不良事件。

ECRI的榜单还包括其他与放射学相关的安全问题,如网络安全漏洞(排名第4)和诊断错误(排名第7)。您可以在此免费下载完整报告。2024年排名第一的患者安全威胁是“新培训的临床医生从教育到实践的过渡挑战”。

以下是完整的榜单:

  1. 忽视患者、家属和护理人员的担忧。
  2. 人工智能治理不足。
  3. 医疗信息的传播。
  4. 网络安全漏洞。
  5. 在非军事医疗环境中照顾退伍军人。
  6. 劣质和伪造药物。
  7. 癌症、血管事件和感染的诊断错误。
  8. 长期护理机构中的医疗相关感染。
  9. 患者出院时协调不足。
  10. 社区药房的工作条件恶化。


(全文结束)

大健康
大健康