美国医疗健康领域人工智能的快速创新与日益增长的立法监管The Rapid Innovation and Increasing Legislation of AI in Healthca

环球医讯 / AI与医疗健康来源:natlawreview.com美国 - 英语2025-10-05 01:28:37 - 阅读时长13分钟 - 6056字
本文深入分析了2025年美国医疗健康领域人工智能技术的快速发展与监管环境演变,详细探讨了FDA对AI医疗设备的监管框架调整、HIPAA隐私法规面临的挑战、算法偏见对健康公平的影响、医疗事故责任认定的新问题,以及投资趋势与市场动态。文章指出,尽管45个州在2024年提出了AI相关立法,形成了复杂的联邦与州级法规拼凑局面,但风险投资仍持续流入具有明确临床价值的解决方案。作者强调,在监管不确定的环境下,医疗机构、技术开发者和监管机构必须协同合作,在保护患者安全的同时促进创新,确保人工智能真正成为美国医疗体系的变革力量,这需要临床专业知识、技术创新、监管洞察和伦理审查的综合平衡。
美国医疗健康人工智能监管数据隐私算法偏见专业责任市场动态新兴技术网络安全人为监督
美国医疗健康领域人工智能的快速创新与日益增长的立法监管

美国医疗健康领域人工智能(AI)工具的应用正以前所未有的速度不断发展,从根本上重塑了全美医疗保健的提供、管理和监管方式。随着2025年的推进,技术创新、监管适应(或缺乏适应)与市场变化的融合,为医疗保健提供者、技术开发者以及联邦和州立法者及监管机构创造了显著机遇与复杂挑战。

AI赋能的医疗设备的快速普及或许是这一变革最明显的体现。截至2024年9月的五年期间,美国食品药品监督管理局(FDA)已授权近800种AI和机器学习(ML)赋能的医疗设备上市,监管机构被迫将为静态设备设计的传统框架调整为适应部署后持续学习、不断演化的动态算法。这一根本性转变促使监管方法创新,例如开发预定义变更控制计划(PCCPs),允许制造商在预定义参数内修改系统,而无需提交额外的上市前申请。

监管框架面临压力

规范医疗健康AI的监管环境反映了联邦机构在平衡创新与患者安全方面面临的更广泛挑战。FDA对作为医疗器械软件(SaMD)的AI赋能软件的监管方法已显著演变,最终在1月发布了全面的草案指南,针对AI赋能设备软件功能的全生命周期管理和上市提交建议。该指南标志着为挑战传统设备稳定性与可预测性概念的AI和ML系统建立明确监管路径的关键里程碑。

传统的FDA医疗器械监管范式并非为适应性AI和ML技术而设计,这为部署后可能演化的持续学习算法带来了独特挑战。FDA 2021年1月发布的AI/ML基础SaMD行动计划基于全产品生命周期方法,概述了五项关键行动:通过PCCPs调整监管框架、协调良好ML实践、开发以患者为中心的方法、支持消除偏见方法,以及试点真实世界性能监测。

然而,监管格局仍然支离破碎且不确定。特朗普政府撤销拜登政府的第14110号行政命令"安全、可靠和可信的人工智能",以及现任政府在1月发布自己的行政命令"消除美国在人工智能领域领导地位的障碍",进一步加剧了联邦AI治理优先事项的不确定性。尽管拜登政府的行政命令已被撤销,但其影响仍通过已启动的机构行动持续存在,包括美国卫生与公众服务部(HHS)2024年4月关于《平价医疗法案》(ACA)第1557条的最终规则(涉及卫生项目中的非歧视)以及民权办公室关于算法透明度的最终规则。因此,执法重点和未来监管发展仍不确定。

州级监管活动试图填补其中一些空白,45个州在2024年会议期间提出了AI相关立法。加利福尼亚州议会第3030号法案专门规范生成式人工智能(gen AI)在医疗保健中的使用,体现了医疗组织必须与联邦法规并行应对的州特定要求日益增长的趋势。这种州和联邦要求的拼凑局面,为跨多个司法管辖区运营的医疗AI开发者和用户带来了尤为严峻的挑战。

数据隐私与安全:HIPAA挑战

医疗AI部署面临的最紧迫问题之一涉及AI能力与医疗数据隐私要求的交叉。《健康保险流通与责任法案》(HIPAA)在现代AI系统出现之前很久就已颁布,随着医疗提供者越来越多地依赖AI工具进行临床文档记录、决策支持和行政职能,这造成了重大的合规挑战。

AI驱动的转录和文档工具的使用已成为一个特别令人关注的领域。医疗提供者在患者就诊期间使用AI系统进行自动记录时,如果没有实施适当保障措施,可能面临HIPAA违规风险。这些系统通常需要访问全面的患者信息才能有效运行,但传统HIPAA标准可能与AI系统优化性能所需的海量数据集相冲突。AI工具必须设计为仅访问和使用其目的严格必需的受保护健康信息(PHI),尽管AI模型通常需要全面数据集才能充分发挥潜力。

HHS 1月发布的拟议法规试图通过要求覆盖实体将其AI工具纳入风险分析和风险管理合规活动来解决其中一些问题。这些要求规定组织至少每六个月进行一次漏洞扫描,每年进行一次渗透测试,认识到AI系统为潜在数据泄露和未授权访问引入了新的风险向量。

随着组织试图解决AI特定风险,业务关联协议(BAAs)变得越来越复杂。这些协议现在必须涵盖算法更新、数据保留政策以及ML流程的安全措施,同时确保处理PHI的AI供应商在强大的合同框架下运营,该框架明确规定了允许的数据使用和所需保障措施。医疗组织必须确保处理PHI的AI供应商在强大的BAA下运营,该协议明确规定了允许的数据使用和必要安全措施,并考虑与算法更新、数据保留政策和其他ML流程相关的AI特定风险。

算法偏见与健康公平问题

医疗AI系统中的算法偏见可能性已成为该行业面临的最重大伦理和法律挑战之一。2024年对692种经FDA批准的AI和ML赋能医疗设备的审查显示了令人担忧的代表性差距,只有3.6%的批准设备报告了种族和民族数据,99.1%未提供社会经济信息,81.6%未能报告研究对象年龄。

这些数据缺口对健康公平具有深远影响,因为在非代表性数据集上训练的AI系统可能会延续或加剧现有的医疗保健差异。训练数据的质量和代表性显著——且不可避免地——影响AI系统在不同患者群体中的性能。鉴于联邦执法重点在多元化、公平性和包容性(DEI)倡议方面的快速变化,这一挑战尤为严峻。

尽管HHS 2024年4月关于其项目的ACA第1557条最终规则建立了要求,确保医疗实体的AI系统不会歧视受保护类别,但现任政府对DEI倡议的反对造成了关于执法机制和合规期望的不确定性。鉴于行政分支政策在DEI和反歧视倡议方面的快速转变,联邦医疗AI关于偏见和公平的法规将如何受到影响仍有待观察。

医疗组织 increasingly实施系统性偏见测试和缓解策略,贯穿AI生命周期,重点关注技术验证、促进健康公平、确保算法透明度、接触患者社区、识别公平问题和权衡,以及对公平结果负责。直到最近,AI系统开发者一直面临越来越大的监管压力,确保训练数据集充分代表多样化的患者群体。大多数医疗AI开发者和从业者继续认为,相关特征,包括年龄、性别、种族和民族,应在临床研究中得到适当代表和跟踪,以确保结果可以合理推广到预期使用人群。

然而,这些努力通常在没有明确监管指导或标准化的偏见检测和修复方法的情况下进行。必须特别关注保护弱势群体,包括儿科患者、老年人、种族和民族少数群体以及残障人士。

专业责任与护理标准

AI在临床实践中的整合创造了关于专业责任和护理标准的新问题,现有法律框架难以解决。传统的医疗事故分析依赖于既定的护理标准,但AI能力的快速演变使得确定在临床决策中什么是适当使用算法建议变得困难。

医疗AI责任通常在既定的医疗事故框架内运作,需要建立四个关键要素:护理责任、责任违反、因果关系和损害。当AI系统参与患者护理时,确定这些要素变得更加复杂。虽然医生必须行使其他医生通常具备的技能和知识,但AI整合使得什么构成合理护理变得不确定。

州医学委员会联合会2024年4月的建议——将临床医生对AI技术相关医疗错误承担责任——试图澄清算法辅助护理时代的专业责任。然而,这些建议提出了关于因果关系的复杂问题,特别是当多种因素导致患者结果,而AI系统提供医疗保健提供者可能接受、修改或基于其临床判断拒绝的建议时。

当算法影响或驱动医疗决策时,确定不良结果的责任提出了现有责任框架尚未完全解决的新型法律挑战。法院必须评估AI系统建议是否是患者伤害的近因,以及医疗提供者的独立医疗判断和其他促成因素的影响。

文档要求变得越来越重要,因为医疗提供者必须维护AI系统使用的详细记录,包括提供的具体建议、接受或拒绝算法指导的临床推理,以及对AI生成建议所做的任何修改。这些文档实践对于防御潜在的医疗事故索赔至关重要,同时确保医疗提供者能够证明适当的临床判断和专业问责。

AI相关的医疗事故案件可能需要具有医疗实践和现有AI技术能力及局限性专业知识的专家证人。此类专家应具备评估医疗提供者是否以适当方式使用AI系统以及算法建议是否符合相关标准的经验。在AI相关医疗事故案件中原告面临证明AI系统错误直接导致患者伤害的挑战,特别是当医疗提供者保留决策权时。

市场动态与投资趋势

尽管存在监管不确定性,对医疗AI的风险投资仍然强劲,数十亿美元分配给开发创新解决方案的初创公司和成熟公司。然而,投资模式变得更加选择性,专注于展示明确临床价值和监管合规的解决方案,而不是追求没有证明效益的投机技术。

美国医院协会2025年初对数字健康行业领导者的调查显示谨慎乐观,81%的人对投资前景持积极或谨慎乐观态度,79%的人表示计划在未来12个月内寻求新的投资资本。这表明尽管近期存在监管和经济不确定性,但仍对医疗AI的长期潜力充满信心。

临床工作流程优化解决方案、基于价值的护理支持平台和收入周期管理技术吸引了大量资金,反映了医疗组织专注于解决直接运营挑战,同时为更先进的AI应用建立基础。AI越来越多地整合到这些核心医疗功能中,表明该技术已从实验性应用演变为必要的运营工具。

大型科技公司通过大量研发投资推动医疗AI的重大创新。Google Health、Microsoft Healthcare、Amazon Web Services和IBM Watson Health等公司继续开发基础AI平台和工具。大型医疗系统和学术医学中心通过专门的创新中心、研究合作伙伴关系和试点项目引领医疗AI采用,通常作为新兴AI技术的测试平台。

制药公司越来越多地在整个药物开发管道中整合AI,从目标识别和分子设计到临床试验优化和监管提交。这些投资旨在降低开发成本和时间,同时提高新治疗批准的成功率。

大型医疗技术公司越来越多地收购专业AI初创公司,将创新功能整合到全面的医疗平台中。这些收购加速了技术部署,同时为初创公司提供了大规模实施和监管合规所需的资源。

新兴技术与整合挑战

生成式AI技术的快速进步为医疗组织带来了新的监管和实际挑战。截至2023年底,FDA尚未批准任何依赖纯生成式AI架构的设备,这为这些日益复杂的技术创造了监管路径的不确定性。生成式AI创建合成内容(包括医学图像和临床文本)的能力,需要传统医疗器械框架可能无法充分解决的验证和监督新方法。

临床决策支持工具与医疗器械之间的区别仍然是监管澄清的持续领域。为医疗提供者提供临床决策信息的软件可能构成也可能不构成医疗器械,这取决于特定功能和提供的解释级别。

医疗AI系统必须提供足够的透明度,使医疗提供者能够理解系统建议和局限性。FDA强调可解释AI的重要性,使临床医生能够理解算法建议背后的推理。AI系统必须提供对其建议的可理解解释,医疗提供者随后用这些解释与患者沟通。

AI与机器人技术、虚拟现实和医疗物联网(IoMT)设备等新兴技术的整合,为试图应对监管要求和临床实施挑战的医疗组织创造了额外复杂性。这些融合技术提供了显著的潜在好处,但也引入了与网络安全、数据隐私和临床安全相关的新风险,现有监管框架难以全面解决。

AI赋能的远程监测系统利用可穿戴设备、IoMT传感器和移动健康应用程序持续跟踪患者的体征、药物依从性和疾病进展。这些技术能够在传统医疗环境之外实现对恶化状况的早期干预并支持慢性病管理,但它们面临着与设备性能、用户培训和临床监督相关的独特监管挑战。

网络安全与基础设施考虑

医疗数据仍然是网络威胁的主要目标,涉及500名或更多医疗记录的数据泄露在2024年达到接近历史记录的数量,延续了令人担忧的上升趋势。由于医疗数据在黑市上的高价值及其运营的关键性质(这使得组织更可能支付赎金),医疗数据仍然是黑客的主要目标。

AI系统的整合(通常需要访问大量患者数据)进一步复杂化了安全格局,并创造了组织必须通过强大的安全框架解决的新漏洞。医疗组织面临将AI工具整合到现有临床工作流程和电子健康记录系统中的重大挑战。技术互操作性问题、用户培训要求和变更管理流程需要跨多个部门和利益相关者的大量投资和协调。

2023年综合拨款法案要求在网络连接或处理电子数据的AI赋能设备的上市前提交中包含网络安全信息,这是解决这些问题的重要一步,但AI创新的快速步伐往往超过了充分安全措施的开发。医疗设备制造商现在必须在AI赋能设备的上市前提交中包含网络安全信息。

医疗组织必须实施全面的网络安全计划,不仅要解决技术漏洞,还要解决经常导致数据泄露的人为因素。在使用去标识化数据进行AI训练时,必须实施强大的技术保障措施,包括访问控制、加密、审计日志和安全计算环境,并解决AI开发过程中有意和无意重新识别的风险。

一个重大关切是,受医疗数据泄露影响的个人缺乏私人诉讼权利,导致许多患者在敏感信息被泄露时救济有限。尽管许多州已颁布比联邦立法更严格的法律,但执法资源可能捉襟见肘。

人为监督与专业标准

在大多数联邦和州监管方案中,医疗AI系统的最终责任被分配给实施它的个人和组织,而不是AI系统本身。即使使用AI驱动的决策支持工具,医疗提供者也必须对临床决策保持最终权威。医疗AI应用必须要求有意义的人类参与决策过程,而不是默认完全自动化系统。

AI系统必须为医疗提供者提供明确、易于访问的机制,以便在临床判断表明替代方法时覆盖算法建议。使用AI系统的医疗提供者必须通过持续的培训和教育计划提供实现系统能力的工具。在组织层面,医院和医疗系统必须实施强大的质量保证计划,监控AI系统性能和医疗提供者使用模式。

医学院和住院医师项目开始将AI素养纳入其课程,而专业协会正在制定负责任使用这些工具进行临床实践的指南。对于数字健康开发者,这些转变强调了设计补充临床工作流程和支持医生决策的AI系统的重要性,而不是试图自动化复杂的临床判断。

AI在医疗保健领域的快速发展正在重塑某些医学专业,特别是那些严重依赖图像解释和模式识别的专业,如放射学、病理学和皮肤科。随着AI系统在阅读X光片、磁共振图像和其他诊断图像方面表现出越来越高的准确性,一些医学生和医生正在重新考虑他们的专业选择。这一趋势反映了对AI可能取代医生工作某些方面的更广泛担忧,尽管大多数专家强调AI工具应增强而非取代临床判断。

结论:平衡创新与责任

美国医疗AI领域反映了在促进创新和保护患者福利的同时监管快速发展的技术的更广泛挑战。尽管存在监管不确定性和实施挑战,但医疗AI的基本价值主张仍然具有说服力,提供了提高诊断准确性、增强临床效率、降低成本和扩大专业护理机会的潜力。

在此环境中取得成功需要医疗组织、技术开发者和监管机构保持对合规义务的警惕,同时倡导保护患者而不无谓阻碍创新的监管框架。能够驾驭复杂且不断发展的监管环境同时提供可证明的临床价值的组织,将继续在这个动态领域中找到增长和影响的机会。

前进的道路需要将临床专业知识、技术创新、监管洞察和伦理审查结合在一起的协作方法。随着2025年(及以后)的推进,医疗AI社区必须共同努力,实现该技术的全部潜力,同时保持患者、提供者和更广泛医疗系统的信任和信心。这种平衡方法对于确保AI成为美国医疗保健交付的变革力量至关重要。

【全文结束】

大健康
大健康