医生,而非AI,应授权治疗
一条新加州法律指明方向
Naga Kanaparthy, MD, MPH
2024年10月18日
MedpageToday
Kanaparthy是一位执业内科医生,专长于临床信息学。上个月,加州通过了一项法案,确保医生而非人工智能(AI)拥有患者治疗和服务的最终决定权。该法案SB1120允许保险公司使用AI审查医生对医疗程序的建议,但前提是这些预先批准请求必须由受过培训的医疗专业人员监督和审查。
随着AI在医疗保健领域的迅速普及,加州和俄克拉荷马州是首批通过立法管理AI在预先授权决策中使用的州。其他州也在制定立法,以规范保险公司如何使用AI。我认为我们迫切需要在所有50个州乃至联邦层面制定严格的、可执行的立法。
预先授权需要以患者为中心的改革
医生、患者和保险公司都知道预先授权需要改革——这是保险公司使用AI激增的原因之一。这一始于1960年代的流程,旨在确定患者是否真的需要住院治疗,如今已演变成一个庞大的怪物,几乎阻碍了保险公司的规则手册之外的任何治疗。
这已经损害了患者和医生的利益。在我的个人经验中,预先授权过程会显著延迟护理。其他医生也同意这一点:2023年,美国医学会对1000名医生进行的一项调查显示,近四分之一的医生报告说,授权延迟导致患者出现不良事件。更不用说,预先授权过程消耗了医生的时间和精力。对我来说,提交预先授权请求需要填写两到三页的表格,耗时15-45分钟,通常随后还需要与保险公司的一位医生进行“同行对同行”的讨论。这位保险公司医生很少是了解特定患者需求的专科医生。据《健康事务》杂志报道,医生每周花费3小时与计划互动,办公室工作人员花费的时间更多,全国范围内实践的时间成本估计每年为230亿至310亿美元。
AI能救场吗?
保险公司知道存在问题。这就是为什么许多公司试图使用AI加速预先授权过程。问题是,似乎缺乏医生监督。对于某些公司而言,目前的护理决策似乎是基于算法:AI基本上将请求与保险公司的预设规则进行比较,这些规则是基于大量人群的数据构建的。只有在必要时才会进行人工审核。
确实,使用AI审查预先授权请求加速了这一过程——主要是拒绝。一起针对Cigna的诉讼称,该公司在两个月内以平均每项索赔1.2秒的速度拒绝了30万项预先批准的索赔。基于AI和大数据的拒绝,而不是个别患者的需求,引发了医生和公众的警觉;今年针对保险公司的多起诉讼声称,AI医疗决策导致患者受伤甚至死亡。
一起针对Humana的诉讼称,该公司使用AI而非医生错误地拒绝了老年人根据Medicare Advantage计划应得的护理。另一项针对United Healthcare的诉讼称,保险公司使用AI拒绝了老年人的护理,明知只有极少数老年患者会对这些决定提出异议。
没有医生监督的AI决策存在三个问题
首先,个别患者与似乎指导规则书的大数据模型不同。这些模型似乎汇总了数百万患者的情况和结果,寻找大规模的模式,并计算出总体上最经济有效的治疗方法。但用于此类决策的算法不透明,因此无法确定其计算是否适用于具有独特历史和需求的个体人体。
其次,正如美国公民自由联盟指出的那样,算法严重依赖提供的训练数据,这可能会加剧种族和族裔偏见。
第三,算法不会自动随着数据的变化而调整,这是一个称为“模型漂移”的问题,可能导致不准确和错误的决策。
法律必须要求人类专家参与
为了患者的最佳利益,保险公司必须雇用专门处理特定问题的合格医疗专业人员来处理预先授权请求。这些医生绝对应该能够使用AI等支持工具做出明智的决策。但AI应该是工具箱中的一个工具,而不是唯一的工具。人类的判断和经验也应该发挥作用。
不幸的是,保险公司往往采取最便宜和最容易的解决方案。他们不太可能自行聘请所需的医师专家来监督AI——我们知道,许多公司并没有这样做。因此,我们需要立法者要求他们做正确的事情,让合适的医生,而不是AI,负责这一过程。
当然,保险公司对股东和公众负有责任,需要最大化效率。保险公司需要平衡人口健康动态,确保护理和成本适当分配;昂贵且无效的治疗应该被剔除。
然而,当保险公司使用零或最少人类监督的AI时,他们使我们医生面临违反不伤害誓言的风险。这就是为什么今年早些时候,CMS发布了一份备忘录,表明Medicare Advantage计划可以使用AI协助预先授权,前提是决策不会取代医学必要性的标准,并考虑到患者的个体特征,包括病史和医生的建议。然而,这不适用于其他保险计划。
尽管公众越来越关注,但只有少数州通过了立法,要求在作出预先授权决策时有人类医生参与。这还不够。我们需要每个州,甚至联邦层面的法律,要求预先授权决策由与AI合作的合格医生领导,而不是为AI工作,当人的生命和福祉受到威胁时。
Naga Kanaparthy, MD, MPH是耶鲁医学院的一名执业内科医生,专长于临床信息学。他是耶鲁大学和OpEd项目的公共声音研究员。
(全文结束)


