2024年5月6日,OCR发布了最终规则,解释并实施了《平价医疗法案》第1557节在45 C.F.R. § 92中的规定(最终规则)。该最终规则监管了患者护理决策支持工具的使用,包括用于筛查、风险预测、诊断、预后、临床决策、治疗计划、医疗保健运营和资源分配的人工智能(AI)算法。
2025年1月10日,OCR发布了一封“亲爱的同事们”信函,重点关注受保护实体如何在其使用患者护理决策支持工具时遵守最终规则的要求。
患者护理决策支持工具被定义为“任何由受保护实体用于支持其健康项目或活动中的临床决策的自动化或非自动化工具、机制、方法、技术或组合。” 45 C.F.R. § 92。此定义包括用于诊断、治疗、患者监测或任何其他医疗保健操作中的人工智能(AI)算法。受最终规则约束的受保护实体包括:(1)联邦财政援助的接受者;(2)美国卫生与公众服务部;(3)根据《平价医疗法案》第一篇设立的实体。
那么,使用AI进行医疗保健操作的受保护实体必须做些什么呢?
除了禁止在受保护实体的健康项目或活动中基于种族、肤色、国籍、性别、年龄或残疾的歧视外,1月10日的信函还扩展了最终规则中的两个具体要求:
风险识别——首先,受保护实体有“持续义务,合理努力识别其健康项目或活动中使用患者护理决策支持工具时,输入变量或因素是否测量了种族、肤色、国籍、性别、年龄或残疾。” 45 C.F.R. § 92.210(b)。最终规则并未具体描述受保护实体应如何做出这些合理努力,但1月10日的信函提供了以下示例:
- 审查OCR在第1557节最终规则中讨论的风险,包括用于评估心力衰竭、癌症、肺功能和血氧水平等工具的类别;
- 研究同行评审医学期刊或来自医疗保健专业协会和医院协会(包括HHS发布的研究)的已发表文章;
- 使用、实施或创建由非营利AI组织或其他机构开发的安全AI注册表,包括受保护实体内部使用的注册表,以确定组织内的使用案例;
- 获取供应商提供的现有患者护理决策支持工具中包含的输入变量或因素的信息。
1月10日的信函还明确指出,OCR审查受保护实体是否“合理努力”识别风险将通过个案分析进行,可能考虑多个因素,包括:
- 受保护实体的规模和资源(例如,拥有IT部门和健康公平官员的大医院可能比没有此类资源的小型提供者需要付出更大的努力来识别工具);
- 使用时的可用信息,以确定是否有潜在的歧视性使用通知,如果产品基于种族、肤色、国籍、性别、年龄或残疾输入变量;
- 受保护实体是否按照开发者和监管机构(如适用)的意图和批准使用工具,或者是否适应或定制了工具;
- 受保护实体是否从工具开发者处获得产品信息,了解其潜在的歧视风险,或识别工具的输入变量是否包括种族、肤色、国籍、性别、年龄或残疾;
- 受保护实体是否建立了评估所采用或使用的患者护理决策支持工具的方法或流程。
风险缓解——其次,对于每个识别出歧视风险的患者护理决策支持工具,受保护实体必须“合理努力减轻因使用该工具而产生的歧视风险。” 45 C.F.R. § 92.210(c)。1月10日的信函再次提供了具体的缓解措施示例:
- 建立书面政策和程序,管理患者护理决策支持工具在决策中的使用,以及治理措施;
- 监控潜在影响并开发解决投诉的方法;
- 维护内部AI注册表或参考非营利AI组织或其他机构开发的AI注册表,为受保护实体提供内部使用情况信息,并促进法规遵从;
- 利用员工覆盖并报告由患者护理决策支持工具做出的潜在歧视性决定,包括确保“人在环中”审查机制,由合格的专业人员审查工具的决定;
- 培训员工,包括如何报告结果和解释工具做出的决定,包括其他联邦规则要求的因素;
- 建立登记册,记录被识别为存在歧视风险的工具,并审查这些工具之前的决定;
- 审计工具在“真实世界”场景中的表现,并监控工具是否存在歧视;
- 向患者披露受保护实体使用的患者护理决策支持工具,这些工具已被识别为存在歧视风险。
受保护实体是否采取了合理的努力来缓解歧视风险将取决于多种因素,如实体规模、AI工具的使用背景或用于处理投诉的政策。值得注意的是,OCR认为,如果AI工具使用了像种族这样的输入变量,可能会触发更严格的审查,而像年龄这样的输入变量更可能具有临床和证据基础的目的,因此需要额外的缓解政策和努力。
虽然最终规则关于禁止在使用患者护理决策支持工具时歧视的规定已于2024年7月5日生效,但要求合理努力识别和缓解使用这些工具时的歧视风险的规定将于2025年5月1日生效。
(全文结束)


