在过去十年中,健康保险公司越来越多地使用人工智能算法。与医生和医院使用AI帮助诊断和治疗患者不同,健康保险公司使用这些算法来决定是否支付由患者医生推荐的医疗治疗和服务。
最常见的例子之一是预先授权,即在提供医疗服务之前,医生需要从保险公司获得支付批准。许多保险公司使用算法来决定所请求的护理是否“医学上必要”并应被覆盖。
这些AI系统还帮助保险公司决定患者有权接受多少护理——例如,手术后患者可以住院多少天。
如果保险公司拒绝支付医生推荐的治疗费用,患者通常有三种选择。你可以尝试上诉,但这个过程可能需要大量的时间、金钱和专家帮助。只有千分之二的索赔被拒绝案件会被上诉。你可以同意接受保险公司愿意覆盖的不同治疗。或者你可以自费支付推荐的治疗,但这通常不现实,因为医疗费用高昂。
作为一名研究健康法律和政策的法学学者,我非常关注保险算法如何影响人们的健康。就像医生和医院使用的AI算法一样,这些工具有可能改善护理并降低成本。保险公司表示,AI有助于他们快速、安全地决定哪些护理是必要的,并避免浪费或有害的治疗。
然而,有强有力的证据表明,情况可能恰恰相反。这些系统有时被用来延迟或拒绝本应覆盖的护理,全都是为了节省成本。
拒绝护理的模式
假设公司将患者的医疗记录和其他相关信息输入到医疗保险算法中,并将这些信息与当前的医疗护理标准进行比较,以决定是否覆盖患者的索赔。然而,保险公司拒绝披露这些算法如何做出这些决定,因此很难确切地说它们在实践中是如何运作的。
使用AI审查覆盖范围可以为保险公司节省时间和资源,特别是因为这意味着需要更少的医疗专业人员来审查每个案例。但对保险公司的财务好处不止于此。如果一个AI系统迅速拒绝了一个有效的索赔,而患者提出上诉,这一上诉过程可能需要数年时间。如果患者病情严重且预期寿命短,保险公司可能会通过拖延过程来节省资金,希望患者在案件解决之前去世。
这创造了一种令人不安的可能性,即保险公司可能会使用算法来拒绝昂贵、长期或终末期健康问题的护理,如慢性病或其他致残性疾病。一位记者直截了当地说:“许多一生都在缴纳医疗保险的老年患者现在面临截肢或癌症,被迫要么自己支付护理费用,要么放弃治疗。”
研究支持这种担忧——患有慢性病的患者更有可能被拒绝覆盖,并因此受苦。此外,黑人和西班牙裔人以及其他非白人种族的人,以及认同为同性恋、双性恋或跨性别者的人,更有可能经历索赔被拒绝的情况。一些证据还表明,预先授权可能会增加而不是减少医疗系统的成本。
保险公司辩称,患者总是可以自费接受任何治疗,所以他们并没有真正被拒绝护理。但这种论点忽略了现实。这些决定对健康有严重的后果,尤其是当人们负担不起所需的护理时。
走向监管
与医疗算法不同,保险AI工具基本上不受监管。它们不需要经过食品药品监督管理局(FDA)的审查,保险公司经常声称他们的算法是商业机密。
这意味着没有公开信息说明这些工具如何做出决定,也没有外部测试来验证它们是否安全、公平或有效。没有任何同行评审的研究显示它们在实际应用中的效果如何。
似乎有一些改变的势头。负责管理医疗保险和医疗补助服务中心(CMS)的联邦机构最近宣布,医疗保险优势计划中的保险公司必须根据个别患者的需求做出决定——而不仅仅是基于通用标准。但这些规则仍然允许保险公司制定自己的决策标准,并且在使用前仍不要求任何外部测试来证明其系统有效。此外,联邦规则只能监管联邦公共健康计划,如医疗保险。它们不适用于不提供联邦健康计划覆盖的私人保险公司。
包括科罗拉多州、乔治亚州、佛罗里达州、缅因州和德克萨斯州在内的一些州已经提出了限制保险AI的法律。少数州已经通过了新法律,其中包括2024年的加利福尼亚州法令,该法令要求由持照医生监督保险覆盖算法的使用。
但大多数州法律与新的CMS规则一样存在同样的弱点。它们让保险公司过多地控制如何定义“医学必要性”以及在什么情况下使用算法做出覆盖决定。它们也不要求这些算法在使用前由中立专家进行审查。即使是最强的州法律也不够,因为各州通常不能监管医疗保险或在其边界外运营的保险公司。
FDA的角色
许多健康法律专家认为,保险公司行为与患者需求之间的差距已经变得如此之大,以至于监管医疗保险算法现在是迫切需要的。正如我在即将发表于《印第安纳法律杂志》的一篇文章中所论述的那样,FDA处于监管的良好位置。
FDA配备了能够评估保险算法在用于做出覆盖决定之前的医疗专家。该机构已经审查了许多医疗AI工具的安全性和有效性。FDA的监管还将提供一个统一的全国性监管方案,而不是全国各地的拼凑规则。
有些人认为FDA在这方面的权力有限。对于FDA的监管目的,医疗设备被定义为用于“诊断疾病或其他状况,或用于治愈、缓解、治疗或预防疾病”的仪器。由于健康保险算法不用于诊断、治疗或预防疾病,国会可能需要修改医疗设备的定义,以便FDA能够监管这些算法。
如果FDA目前的权力不足以覆盖保险算法,国会可以修改法律赋予其这种权力。同时,CMS和州政府可以要求独立测试这些算法的安全性、准确性和公平性。这可能也会促使保险公司支持单一的国家标准——如FDA监管——而不是面对全国各地的拼凑规则。
显然,已经开始朝着监管健康保险公司如何使用AI来决定覆盖的方向迈进,但仍在等待强有力的推动。患者的生命实际上悬而未决。
(全文结束)


