播客:医疗AI监管的未来之路
在本期《关怀法律顾问》播客中,美国霍金斯律师事务所的健康政策律师约翰·沃恩(John Vaughan)、健康监管律师丹·西尔弗博德(Dan Silverboard)和公共事务顾问莎拉·斯塔林·克罗斯安(Sarah Starling Crossan)共同探讨医疗AI监管的快速发展。他们分析了联邦行政命令、机构规则与州级立法在临床实践、保险和患者护理中的复杂互动,重点揭示了AI治理计划、偏差审计、数据质量保证和患者透明度等关键合规挑战,并为应对跨司法管辖区的差异性监管提供专业建议。
联邦监管动态
美国卫生与公众服务部(HHS)于2025年1月通过的AI战略计划因特朗普总统上任首日废除拜登政府行政命令而停滞。尽管如此,联邦机构仍在发挥特定监管作用:
- HHS:根据《平价医疗法案》第1557条,AI医疗决策系统必须避免基于种族、性别、年龄等保护类别的歧视
- HIPAA:健康信息隐私保护法继续适用于AI系统的患者数据处理
- 国家协调员办公室(ONC):强调数据集质量、透明度和互操作性
州级立法浪潮
2024年31个州通过医疗AI相关法案,形成三大监管领域:
- 保险监管
- 红州蓝州普遍立法禁止保险公司仅凭AI拒绝预授权请求
- 加州、科罗拉多等州要求确保AI使用不产生算法歧视
- 临床实践规范
- 得州《负责任AI治理法案》要求治疗时披露AI使用
- 密西西比州要求医生获得患者知情同意
- 数据治理
- 科罗拉多州强制AI部署者进行定期影响评估
联邦立法博弈
《一大美丽法案》(H.R.1)中的10年州级AI监管禁令引发激烈争议:
- 支持方(如参议员马莎·布莱克本)认为可防止监管碎片化
- 反对方(含参议员坎特韦尔、马基等)担忧削弱州应对AI危害能力
- 最终以99:1投票删除禁令,保留州级监管自主权
国际监管比较
欧盟2024年3月通过的《人工智能法案》确立医疗AI监管标杆:
- 高风险系统分类:所有医疗AI系统自动归类为高风险
- 强制性合规要求:
- 一致性评估(类似CE认证)
- 透明度与可解释性要求
- 人类监督义务
- 强制注册欧盟AI数据库
企业合规建议
- 构建AI治理计划
- 建立内部合规框架(参考NIST AI风险缓解框架)
- 制定供应商合同条款(含合规保证与审计权)
- 持续偏差审计
- 不仅检测种族/性别偏见,还应评估技术性偏差
- 确保训练数据覆盖不同患者群体
- 患者透明度管理
- 开发者需明确告知AI用途、局限性及数据使用方式
- 医疗机构应建立知情同意流程
- 数据质量管理
- 审核数据准确性与适用性
- 在药物研发等场景确保多族裔数据代表性
未来展望
随着加州、德克萨斯、佛罗里达等人口大州推行差异化监管,美国将形成显著监管差异:
- 加州已通过5-6项医疗AI相关法案
- 科罗拉多州实施最严格算法歧视禁止令
- 佛罗里达州暂无专项立法保持监管弹性
这种碎片化格局将导致:
- 多州运营医疗机构的合规成本上升
- 国际医疗AI企业需同时满足欧盟、加州等多重标准
- 技术开发者可能优先采用保守监管方案
【全文结束】


