随着人工智能在医疗保健领域的应用日益广泛,组织和临床医生必须采取措施确保其在实际环境中的安全实施。据德克萨斯大学休斯顿分校(UTHealth Houston)的 Dean Sittig 博士和贝勒医学院(Baylor College of Medicine)的 Hardeep Singh 医学博士兼公共卫生硕士称,他们撰写了指导方针,提供了一种务实的方法来管理临床实践中的 AI 系统。这些指导方针已发表在《美国医学会杂志》(Journal of the American Medical Association)上。
“我们经常听到需要安全构建 AI,但很少有人讨论如何在医疗保健环境中安全使用它,”Sittig 在声明中说,“AI 有潜力彻底改变医疗服务,但如果缺乏保护措施,AI 可能会产生错误或误导性的输出,从而危害患者。”
这些建议基于专家意见、文献综述和健康信息技术安全使用的经验教训。Sittig 和 Singh 强调了强有力的治理、严格的测试和临床医生培训的重要性,以确保 AI 系统提高安全性和效果,而不是引入新的风险。
“医疗保健提供组织需要在当地实施强大的治理系统和测试流程,以确保 AI 的安全使用,”Singh 在声明中说,“所有医疗保健提供组织都应查看这些建议,并开始积极准备应对 AI。”
关键建议
Sittig 和 Singh 的框架包括几个关键步骤:
- 严格测试:在部署前进行现实世界的 AI 工具测试,以确认其安全性和有效性。
- 治理委员会:建立多学科委员会,监督 AI 实施,审查新应用,并确保遵守安全协议。
- 临床医生培训:提供关于 AI 风险和安全使用的正式培训。向患者透明地说明 AI 在其护理中的作用对于建立信任至关重要。
- 系统库存和监控:维护详细的 AI 系统记录,并定期评估以识别和减轻风险。
- 故障安全协议:制定停用故障 AI 系统的程序,并在必要时无缝过渡到手动流程。
作者强调了医疗保健提供者、AI 开发人员和电子健康记录供应商之间合作的重要性,以保护患者并确保 AI 安全集成到临床护理中。“通过共同努力,我们可以建立信任并促进医疗保健中 AI 的安全采用,”Sittig 说。
(全文结束)


