联合委员会发布医疗领域人工智能使用新指南

Guidance on The Use Of Artificial Intelligence In Healthcare

美国英语人工智能与医疗健康
新闻源:National Law Review
2025-10-18 01:28:55阅读时长4分钟1976字
医疗领域人工智能健康AI患者安全患者隐私数据安全质量监控风险偏见评估教育与培训医疗AI治理

联合委员会发布医疗领域人工智能使用新指南

2025年9月17日,联合委员会与健康AI联盟(CHAI)共同发布首份关于医疗领域人工智能("AI")负责任使用的高阶框架。《医疗领域人工智能负责任使用指南》("指南")旨在指导医院及医疗系统安全部署、治理和监测组织内各类AI工具。该指南目标是通过"减少AI错误风险并发挥AI潜力提升行政、运营及患者诊疗效果,推动行业构建增强患者安全的要素体系"。

指南广泛适用于"医疗AI工具",定义为:

"应用于直接或间接患者诊疗(如决策支持、诊断、治疗规划、影像学、实验室检测、患者监测)、诊疗支持服务(如临床文档、预约调度、诊疗协调/管理、患者沟通)以及医疗运营行政服务(如收入周期管理、编码、预先授权、诊疗质量管理等)的临床、行政及运营解决方案,其采用算法方法(预测性、生成性或组合方法)执行系列任务。"

本指南不涉及AI工具开发指导或有效性验证,而是为医疗机构提供安全实施与使用的结构化流程指引。作为初始高阶标准,其后续将通过非约束性治理实施手册及自愿认证计划落地。指南提出医疗机构需管理的七大核心要素,每个要素聚焦实用管控、责任界定与持续学习:

  1. AI政策与治理架构

指南要求建立正式的、基于风险的治理机制,统筹管理第三方、内部开发及嵌入式AI工具。治理团队应配备具备适当技术专长(理想情况含AI背景)的成员,涵盖临床、运营、IT、合规、隐私/安全、安全/事件报告部门及受影响群体代表。政策需与内部标准及外部监管伦理框架保持一致并定期审查。管理机构和/或受托董事会应定期接收AI使用情况、成效及潜在不良事件报告。指南强调"治理机制创造责任归属,是驱动AI工具安全使用的关键"。

  1. 患者隐私与透明度

机构需制定数据访问、使用及保护政策,并建立披露AI使用及教育患者与家属的机制。当AI直接影响诊疗时,须通知患者并在适当时获取同意。透明度与教育应延伸至医护人员,明确AI工具功能、决策角色及数据处理规范。指南旨在保护患者数据、维系信任的同时释放AI效益,尤其关注AI对敏感大规模数据集的依赖特性。

  1. 数据安全与使用保护

指南强调需实施严格安全控制与合同约束。最低要求包括:传输与静态数据加密、严格访问控制、定期安全评估及事件响应预案。数据使用协议应界定允许用途、要求数据最小化、禁止重新识别去标识化数据集、强加第三方安全义务,并保留机构审计供应商合规性的权利。涉及受保护健康信息(PHI)时,HIPAA义务适用,政策需特别符合HIPAA隐私规则。即使对合规去标识化数据,鉴于重新识别风险及模型开发调优的下游用途,机构仍应维持强有力的技术与合同保护。

  1. 持续质量监控

指南指出AI性能可能因数据输入变化、算法更新或工作流程调整而漂移,要求实施部署前验证及部署后基于风险的上下文适配监控。采购阶段应索取验证证据、了解偏见评估情况,并尽可能确保供应商支持针对部署环境代表性样本的调优/验证。机构需制定明确责任主体的综合政策,监控内容包括:定期验证、数据与输出质量可靠性评估、用例相关成效分析、确保AI工具依赖最新数据、开发AI仪表盘,以及建立向相关方报告不良事件/错误的流程。第三方采购合同中亦需明确监控责任。

  1. AI安全事件自愿盲报机制

为避免新增监管负担,指南鼓励向独立机构(如患者安全组织)进行保密盲报,以促进行业知识共享。机构应在内部事件系统中记录AI相关险兆事件与伤害(如危险建议、更新后性能严重下降、偏见输出等),并通过适当渠道内外部共享去标识化细节。此机制既能实现模式识别与全行业快速学习,又能保护患者隐私。

  1. 风险与偏见评估

指南规定机构须主动识别并处理AI工具风险与偏见,包括前瞻性评估与持续监控。应要求供应商披露已知风险、局限及偏见(特别是偏见评估方法)。医疗机构需确认:AI工具是否适用预期场景、是否经历适当偏见检测评估、算法是否经服务人群测试(确保基于本地数据调优/测试),并审计监控以识别、缓解或管理偏见。此举旨在预防AI工具超出验证范围使用时引发的安全错误、误诊、行政负担及医疗不公。

  1. 教育与培训

指南指出医护人员需接受AI工具培训以确保安全实施与临床流程整合。建议针对不同角色提供工具专属培训,涵盖预期用途、局限性及监控义务,并辅以易获取的文档支持。机构应考虑推行更广泛的AI素养与变革管理计划,建立共同术语体系及对AI原理、风险与效益的理解。需确定医护人员在实施前及定期培训的必要性。

指南未详述上述要素的具体实施路径,而是征集利益相关方对高阶框架的反馈,以开发《负责任使用AI实施手册》("手册")。手册将作为指导医疗系统落实指南的实操资源。手册发布后,联合委员会将基于其建立自愿性"负责任使用AI"认证计划。尽管不具约束力,该指南 likely 将影响全行业AI工具应用方式,并可能成为未来医疗AI治理认证要求的范本。

医疗机构在应用AI时,不仅需考量本指南,更应结合自身情况调整实施,从操作与技术双重视角理解拟用AI工具特性及其潜在意外后果。最成功的机构将是那些能敏锐识别意外后果并相应校准AI工具的组织。

【全文结束】

声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。

本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。