医疗保健领域的人工智能革命:政策制定者应关注的五大关键发展The AI Revolution in Health Care: Five Key Developments Policymakers Should Watch

环球医讯 / AI与医疗健康来源:bipartisanpolicy.org美国 - 英语2024-11-22 06:00:00 - 阅读时长6分钟 - 2953字
本文探讨了人工智能在医疗保健领域的五大关键发展,包括诊断、减少医生职业倦怠、提高诊断速度、行政功能优化及生成式人工智能的监管挑战。
医疗保健人工智能患者护理医生职业倦怠诊断准确性行政职能监管政策报销模式AI辅助诊断生成式AI
医疗保健领域的人工智能革命:政策制定者应关注的五大关键发展

在特朗普总统任内,美国对人工智能(AI)的监管方法即将发生重大转变。新技术监管的核心挑战在于找到平衡:过于严格的法规可能会阻碍创新并损害美国在AI领域的竞争优势,而过于宽松的政策则可能对公共健康和安全构成风险。随着政策制定者努力寻找这种平衡,他们应该关注以下五个关键动态。

1) AI辅助诊断可以改善患者护理,但报销复杂

AI在医疗保健中最令人期待的应用之一是通过临床决策支持来改善患者护理。AI系统可以分析患者数据、病史和当前症状,为医疗保健提供者提供基于证据的建议。这项技术已经在中风检测等领域取得进展,例如Viz.ai开发的工具可以通过分析CT扫描快速识别中风。另一个例子是杜克大学健康系统实施的深度学习程序Sepsis Watch。该程序每五分钟审查一次实时数据,如生命体征、检查结果和病史,以帮助预测急诊科的败血症。自杜克大学开始使用这种方法以来,他们在败血症检测方面的效率提高了两倍。

然而,报销新的AI应用在医疗保健中面临独特的挑战。大多数医疗保健报销模式仍然基于按服务收费框架,每个工具或程序都需要自己的计费代码。AI工具通常执行多个复杂的任务,这些任务与现有的计费代码不完全匹配。例如,为每个AI辅助诊断程序指定特定代码可能是低效且难以管理的。新的AI技术可能更适合价值导向的支付框架,这激励提供者使用改善患者结果的工具,而不是基于个别程序报销的按服务收费模型。报销模式需要与技术同步发展,因为如果没有可靠的财务激励,AI创新和实施可能会受到抑制。

2) AI可以帮助减少医生职业倦怠,但自动化缺乏人工监督存在风险

AI还有潜力显著减少医生职业倦怠,这是医疗保健领域日益关注的问题,医生面临长时间工作、沉重的患者负荷和大量的行政任务。通过自动处理常规任务,如临床记录、笔记记录和患者沟通,AI使医疗保健提供者有更多时间直接照顾患者。例如,AI助手已经用于自动将患者互动转录到电子健康记录中,减少了医生处理文书的时间。此外,像ChatGPT这样的工具已被集成到一些电子健康记录中,如Epic提供的MyChart,用于起草出院指示和生成后续笔记,进一步减轻了文书负担。

尽管有简化行政任务的前景,但人工监督仍然至关重要。报告显示,AI生成的文档并非无懈可击,需要持续的人工监督。AI生成的文档或对患者数据的误解可能严重影响患者护理。一项研究发现,未经检查的AI准备的消息直接发送给患者可能会造成严重伤害,尤其是在准确性对患者护理至关重要的情况下。在高风险的AI应用中,人类的参与是必不可少的。此外,过度依赖AI可能会降低提供者在关键决策过程中的监督水平。随着AI工具越来越多地融入诊断和行政工作流程,提供者可能会过多依赖AI驱动的见解,而不充分质疑或验证它们。

3) AI有助于更快诊断,但对准确性和责任的担忧依然存在

确保AI算法是在能够准确反映患者群体全谱的数据上训练的非常重要。否则,技术可能会无意中导致护理差异,特别是对于服务不足的群体。由于AI依赖于大量的训练数据,如果这些数据集不成比例地低估或高估某些人群,AI算法的表现可能会更差。工具的设计和输入的分配也可能加剧现有的偏见。例如,用于预测剖宫产后的阴道分娩成功率的VBAC计算器曾使用种族校正因子。该工具系统地为非裔美国人和西班牙裔妇女分配较低的成功率,而为白人妇女分配较高的成功率,从而阻止提供者向这些妇女提供试产机会,可能加剧现有的母婴健康结果种族差异。这个案例说明了更广泛的担忧,即临床工具在设计不当的情况下可能会强化健康不平等,而不是缓解它们。该工具不再考虑种族,表明当需要时,可以通过深思熟虑、由人类驱动的改变来改进算法。

2024年7月,美国卫生与公众服务部(HHS)最终确定了一项规则,旨在保护消费者免受歧视,要求医疗保健实体采取“合理措施”来识别和减轻其使用的AI工具和算法的任何潜在歧视影响。还提出了保障实验室作为专门设施,用于测试和验证AI系统的安全性、有效性和准确性,以减少算法偏差。这些实验室将类似于质量控制检查点,确保任何用于临床环境的AI工具达到特定的性能标准。包括EPIC、Valid AI、MITRE和CHAI在内的多个组织正在倡导创建这些保障实验室。然而,HHS尚未正式认可任何保障实验室网络。政府的更迭可能会进一步拖延这一进程。

4) 使用AI简化行政职能需要与监督保持平衡

除了临床空间,AI还在医疗保健的行政工作流程中进行变革,特别是在理赔处理和预先授权方面。随着医疗保健行业越来越多地转向AI以简化运营,关于透明度和公平性的担忧也出现了,特别是在涉及预先授权的案件中。2022年,Medicare Advantage处理了超过4600万份预先授权请求,这一任务得到了自动化和AI的支持。同一年,Humana和UnitedHealthcare使用这些工具为其Medicare Advantage受益人确定后期急性护理的覆盖范围。在几个实例中,AI驱动的工具拒绝了提供者认为医学上必要的治疗,导致公司被起诉。

美国医疗保险和医疗补助服务中心(CMS)发布了旨在改善AI驱动的预先授权透明度的指南,呼吁加强对AI系统如何做出决策的监督。然而,仍存在差距,特别是在被拒绝索赔的申诉过程中。作为回应,像Claimable这样的AI驱动公司正在出现,使用AI来对抗保险拒绝。

AI也在显著影响医疗系统的收入周期管理。近一半的美国医院现在使用AI工具来管理账单、理赔处理和调度,减少了行政负担并减少了错误。通过自动化这些任务,AI帮助医院节省时间和金钱,使员工能够专注于患者护理的更关键方面。一个关键的考虑因素是,AI生成的索赔是否应包括免责声明,类似于AI生成的患者访问摘要现在包含的通知,告知患者AI对其护理文档的贡献。这种标记可以确保付款方、提供者和患者了解是否使用了AI来生成财务索赔,从而增加计费过程的透明度。在高风险领域,如医疗保健覆盖,使用AI的透明度是确保患者获得所需护理和医疗保健提供者能够做出知情、以患者为中心的决策的关键。

5) 生成式AI具有巨大潜力,但也带来了监管问题

FDA已批准近1000种AI/机器学习辅助的医疗设备,申请数量呈指数增长。2020年至2021年间,FDA收到的AI工具申请增加了1000%,突显了跟上这些快速发展的技术所面临的重大挑战。与传统的静态产品(如药物或医疗设备)不同,AI技术是动态的——它们学习、演变和发展。虽然适应性是AI的核心优势,但它也使监管监督变得复杂。目前大多数FDA批准主要基于机器学习,因为其决策过程依赖于历史数据中的既定模式。

生成式AI在医疗保健系统内的各个功能中广泛采用,增加了另一层复杂性。FDA表示,随着这些工具变得越来越普遍,它需要更多的监管灵活性。生成式AI基于从现有数据中学到的模式创建全新的内容,引发了对其生成不可预测或无法验证的结果的新监管关切。随着AI系统超越其初始训练数据,监管机构必须考虑如何实时监控和确保安全、准确性和可靠性。

结论

AI在医疗保健领域迅速发展,提供了转型的可能性。实现其全部潜力需要深思熟虑的实施、监管和报销。否则,患者、提供者和整个系统可能会错失其带来的好处。


(全文结束)

大健康
大健康