“人工智能治理不足”在2025年的患者安全威胁中排名第二,这是ECRI于3月10日发布的最新榜单中的内容。
多年来,人工智能已经在医疗领域得到广泛应用,包括影像、临床决策支持和病历生成等。这些技术可以带来诸多益处,但也伴随着对患者和医护人员的潜在风险。这家前身为紧急护理研究所的非营利组织通过广泛的资料收集,编制了最新的年度十大榜单,旨在确定“最紧迫的患者安全威胁”。今年排名第一的是“忽视患者、家属和护理人员的担忧”。
ECRI在其报告中指出:“AI模型的质量取决于它们使用的算法和训练数据。如果AI模型基于不良数据,则会增加发生不良事件的可能性。由AI产生的医疗错误可能会危及患者安全,导致误诊和不适当的治疗决策,从而造成伤害甚至死亡。”
尽管存在这些风险,但在2023年的一项调查中,只有约16%的医院高管表示他们有系统性的AI使用和数据访问治理政策。ECRI指出,偏见是一个潜在的问题,基于有缺陷的数据进行训练的模型可能会加剧与种族、性别或社会经济地位相关的不平等现象。
“未能制定系统性的治理政策来评估、实施、监督和监测新的和现有的AI应用可能会增加医疗机构的责任风险,”报告中提到。“然而,制定能够适应快速变化的AI技术的政策可能具有挑战性。”
ECRI为放射科部门和实践提供了关于AI治理的一系列建议行动,分为四个类别:
- 文化、领导力和治理:可能的应对措施包括制定政策、成立委员会评估新技术、确保组织遵守联邦和地方法律、培训员工了解AI政策,并定期评估结果。
- 患者和家庭参与:向患者披露AI的使用情况并获得他们的同意,征求反馈意见,并让患者和家庭咨询委员会帮助教育有关生成式AI的使用。
- 工作人员的安全和福祉:在实施新的AI技术时评估临床工作流程,定期评估用户体验,并认真对待工作人员的安全问题。
- 学习系统:实施强大的AI相关事件报告系统,强调员工在质疑AI辅助决策时应依赖自己的临床判断,并教育团队成员如何识别错误或不良事件。
ECRI的榜单还包括其他与放射学相关的安全问题,如网络安全漏洞(排名第4)和诊断错误(排名第7)。您可以在此免费下载完整报告。2024年排名第一的患者安全威胁是“新培训的临床医生从教育到实践的过渡挑战”。
以下是完整的榜单:
- 忽视患者、家属和护理人员的担忧。
- 人工智能治理不足。
- 医疗信息的传播。
- 网络安全漏洞。
- 在非军事医疗环境中照顾退伍军人。
- 劣质和伪造药物。
- 癌症、血管事件和感染的诊断错误。
- 长期护理机构中的医疗相关感染。
- 患者出院时协调不足。
- 社区药房的工作条件恶化。
(全文结束)


