关键要点
- 联合委员会与健康人工智能联盟发布了一项新框架——《医疗健康领域负责任使用人工智能指南》(RUAIH),旨在指导临床和运营环境中安全、道德地采用人工智能工具。
- 随着人工智能工具迅速进入医疗工作流程,它们既带来希望也带来风险。如果没有明确的监管,组织可能会面临算法偏见、数据滥用和临床医生信任度下降等挑战。
- 医疗保健组织应审查RUAIH框架的七大核心原则,并采取措施建立治理结构、培训协议和保障措施,使人工智能的使用与以患者为中心的护理保持一致。
2025年9月17日,联合委员会(TJC)与健康人工智能联盟(CHAI)合作发布了《医疗健康领域负责任使用人工智能指南》(RUAIH)。这标志着美国认证机构首次发布正式框架,旨在帮助医疗保健组织安全、有效且合乎道德地将人工智能技术整合到临床和运营实践中。
联合委员会与CHAI的合作反映了人们日益认识到AI将在医疗服务提供中发挥变革性作用。虽然目前该指南是自愿性的,但其旨在作为内部治理、风险管理和质量监管的基础,并可能为未来与AI使用相关的认证和认证路径提供信息。
该指南概述了医疗保健组织应采用的七个基本要素,以确保AI工具负责任地部署并整合到现有的治理和合规系统中。本文总结了这些建议,并探讨了它们对医疗系统、患者和监管机构的意义。
医疗健康中AI的机遇与风险
AI有望改变医疗服务的提供方式。AI工具可以识别影像扫描中的细微模式、预测疾病进展、优化治疗方案,并自动完成耗时的行政任务,如收集或连接患者信息、安排预约、编码患者就诊以及管理健康保险索赔和计费。当有效使用时,AI工具可以提高诊断准确性、减轻临床医生的工作量、提高运营效率,甚至可能挽救生命。
但风险也同样显著。RUAIH框架指出了几个关键问题:
- 算法偏见和错误:AI依赖于海量数据集,导致不准确或不具代表性的数据可能导致误诊或不适当的治疗建议。
- 透明度挑战:许多AI系统的"黑箱"性质削弱了临床医生的信任和患者的理解。
- 数据隐私和安全:AI工具将接收、处理和披露患者数据——增加了未经授权使用、数据泄露和商业利用的风险。
- 工作流程中断:将AI工具整合到既定的临床环境中可能会给运营带来压力,并在员工中产生抵触情绪。
- 过度依赖:对AI工具的依赖可能会削弱临床医生的判断力,并使患者护理变得非人性化。
虽然风险是真实的,但它们本身并不是排除在患者护理中使用AI工具的理由。RUAIH框架强调需要通过结构化的政策、保障措施和监督来负责任地管理这些风险。
医疗健康中负责任使用AI的七个要素
RUAIH框架概述了医疗保健组织在部署或管理AI系统时应考虑的七个关键要素。
- AI政策和治理结构
医疗保健组织应建立一个正式的治理框架,与现有的合规、风险和患者安全结构相整合。强烈建议进行多学科监督(包括临床、技术、法律和患者视角)。
- 建立一个多学科治理机构,领导和监督AI工具的选择、实施和使用;
- 制定涵盖选择、实施、生命周期管理和合规的政策,适用于内部和第三方AI工具;
- 使AI工具的使用与外部监管合规和道德框架保持一致;以及
- 定期向医院高级领导层和管理委员会报告AI工具的使用、结果和潜在不良事件。
- 患者隐私和透明度
医疗保健组织应建立在现有的HIPAA(《健康保险流通与责任法案》)和其他隐私倡议基础上,解决AI特定问题,如数据的二次使用、模型透明度和供应商责任。
- 制定与联邦和州数据隐私法律和法规一致的患者数据访问、使用和保护政策;
- 向患者披露何时使用AI工具,并教育患者了解AI工具在其护理中的使用方式;以及
- 当AI工具用于协助或直接影响临床医生的治疗决策时,纳入获取知情同意的机制。
- 数据安全和数据使用保护
医疗保健组织必须确保其数据安全标准和协议一致地应用于AI工具,使用技术和合同保障措施。
- 确保所有患者数据在传输和静态时都经过加密,并建立基于权限的访问控制和审计日志以限制暴露;
- 定期进行漏洞评估和渗透测试;
- 制定全面的事件响应计划,并确定适当的事件响应资源,以准备潜在的数据泄露事件;以及
- 与供应商签订适当的数据使用协议,定义允许的用途,规范已识别和去识别数据的使用,并建立审计权利。
- 持续质量监控
AI工具应被视为需要持续监督的动态系统,而不是静态技术。
- 通过审查每个供应商的测试、验证和偏见评估,在部署前验证每个拟议的AI工具;
- 建立反馈渠道,鼓励向AI治理团队、组织领导层和供应商例行报告错误、性能问题和担忧;以及
- 开发系统来跟踪使用AI工具的性能、结果和不良事件。
- AI安全相关事件的自愿报告
联合委员会鼓励医疗保健组织采用与其他患者安全事件相同的保密报告结构来报告AI工具相关的安全问题。
- 使用现有渠道,如患者安全组织(PSOs)或联合委员会哨点事件流程;
- 提交AI接近失误、不安全建议或性能故障的去识别报告;以及
- 为CHAI的健康AI注册表等倡议做出贡献,该注册表汇总了行业范围内的盲化安全报告,以促进跨行业学习。
- 风险和偏见评估
- 如果不加以谨慎管理,AI工具可能会无意中放大不平等。医疗保健组织应在实施前后评估AI工具的潜在风险和偏见。
- 要求供应商披露其AI工具中已知的风险、限制和偏见;
- 使用准确和具有代表性的患者数据验证AI工具;以及
- 使用标准化工具捕获和跟踪风险信息,并在使用AI工具时监控患者结果,以持续识别任何差异。
- 教育和培训
该指南强调,劳动力培训和用户教育是负责任采用AI的核心组成部分。
- 为临床医生和工作人员进行特定角色的培训,内容涉及AI工具的功能、限制和安全使用;
- 部署AI素养计划,建立对AI概念、风险和术语的基本理解;以及
- 对组织内使用的AI政策和程序进行培训。
展望未来
尽管RUAIH框架目前是自愿性的,但它预示了联合委员会可能将AI治理纳入未来认证调查的方式。医疗机构应开始记录AI监督政策、治理结构、验证程序和员工培训。调查员可能很快会要求提供证据,证明AI系统与其他安全关键技术一样受到严格治理。现在就建立这些实践将使组织在认证标准制定和演变时既符合要求又处于领导地位。
联合委员会和CHAI宣布,一系列后续产品将在今年晚些时候和2026年推出。下一次发布将包括AI治理手册,这些手册是在全国范围内的研讨会系列后开发的,旨在收集来自各种规模和地区的医院和医疗系统的输入。这些手册将扩展原始指南,并提供实用的操作细节,以帮助组织大规模实施AI治理。
在手册发布后,联合委员会计划为其全国22,000多家经认证的医疗保健组织推出自愿性AI认证计划。该认证将基于RUAIH原则,并作为展示临床和运营环境中负责任和值得信赖的AI部署的基准。
无论是否有机构支持,临床医生都将采用新技术,包括AI工具。这一现实使得医疗保健组织必须采取主动。通过建立治理结构、保护数据、确保透明度、监控性能、解决偏见和教育员工,医疗保健组织可以在最小化风险的同时释放AI的变革力量。
AI工具不会也不应该取代临床医生或人类判断。但随着采用加速,确保AI以有意图的方式部署、与核心原则保持一致并得到患者和临床医生应得的保障的责任,落在了医疗保健领导者身上。
【全文结束】


