在温哥华举行的2024年AMP会议上,关于美国食品药品监督管理局(FDA)对实验室开发测试(LDT)的监管讨论不断,但当我浏览展示最新AI驱动诊断技术的海报和展台时,一个事实变得清晰:除了担心更严格的规则可能影响他们拯救生命的LDT的资深研究人员外,诊断学的未来可能正面临一个严重的警钟。如果相对简单且具体的生化测试,如检测分析物的二元“是/否”结果,即将被严格审查,那么我认为AI驱动的诊断工具可能会被推上手术台。
AI算法能否成为LDT?
一个重要的问题是,何时将AI算法视为LDT整体医疗设备的一部分,何时将其视为独立的“软件作为医疗设备”(SaMD)。在与一位具有法律背景的顾问交谈中,该顾问的观点是AI算法本身不能成为LDT,而只能是LDT的一部分。在这方面,自1995年以来,FDA已授权近1000种“AI驱动”的医疗设备,其中许多是诊断工具(今年早些时候,FDA发布了更新后的951个此类实体列表)。然而,并非所有人都同意这一观点,有些人认为,如果AI算法是在单一临床实验室内部开发和使用的,它可以被视为LDT。
临床实践中AI算法的监管
无论AI算法是LDT的组成部分还是独立的LDT,类似LDT的AI平台的出现都给监管机构带来了新的挑战。目前,尚无针对基于AI工具的监管评估程序。尽管FDA已制定多项规定以保证临床试验室测试的质量,但LDT在美国的使用传统上由临床实验室改进修正案(CLIA)计划负责。不过,这一切现在都有些不确定。
另一方面,分发到多个实验室的商业AI算法不被视为LDT。如果用于临床工作,实验室仍需验证AI算法的预期用途,无论其是LDT、类LDT工具还是非LDT工具。
AI的报销问题
当然,讨论任何医疗设备时,都必须考虑谁将支付测试费用。AI支持的医疗保健应用的报销环境复杂且不断变化。
一个较为明确的领域涉及受监管的软件设备向医疗保健提供者提供临床分析服务的情况,有时称为“基于算法的医疗保健服务”(ABHS)。这些与简化操作任务或在不受控制或非正式环境中使用生成式AI来回答临床问题的AI形成对比。ABHS通过使用AI生成临床输出,以诊断或治疗患者的状况。
由于过时的报销框架,美国的医疗支付系统难以整合ABHS(人工智能和行为健康软件)技术。这些框架缺乏特定的计费代码和标准化的经济影响及有效性评估标准。产生强有力的更好患者结果证明和处理责任问题使医疗系统更难评估和授权这些ABHS工具的覆盖范围,导致该领域的创新超过了其能力。两个可能的解决方案是使Medicare路径更加正式(如软件附加政策)和测试不同的支付模式(如绩效链接或基于事件的报销)。另一个是为ABHS开发专门的报销代码。利益相关者——开发者、医疗保健提供者、付款人和监管机构之间的合作对于建立基于证据的指南至关重要。使用真实世界的数据和持续学习系统可以改善并使ABHS工具长期有用。
人类决策
最终,一些患者更愿意依赖他们的初级保健医生,而不是参与AI辅助的医疗决策。归根结底,医疗保健并不是一个存在于虚拟世界中的冷冰冰的机器人实践。
(全文结束)


