随着各州努力限制健康保险公司使用人工智能,患者和医生正武装自己,利用AI工具来对抗理赔拒付、预先授权障碍和不断上涨的医疗费用。
多家企业和非营利组织已推出AI驱动的工具,帮助患者获得保险理赔支付并应对错综复杂的医疗账单,形成了一场关于谁获得护理、谁承担费用的机器人拉锯战。
Sheer Health(纯粹健康)是一家成立三年的公司,帮助患者和医疗服务提供者应对健康保险和账单问题。该公司现有一款应用程序,允许消费者连接其健康保险账户、上传医疗账单和理赔申请,并就免赔额、共付额和涵盖福利提出疑问。
"你可能会认为应该有某种技术能用通俗英语解释为什么我收到了1500美元的账单,"联合创始人杰夫·维滕(Jeff Witten)表示。他说,该程序免费结合AI和人工提供答案。希望在挑战拒付理赔或处理网络外报销方面获得更多支持的患者可以付费让Sheer Health代为处理。
在北卡罗来纳州,非营利组织Counterforce Health(反制健康)设计了一款AI助手,帮助患者申诉被拒的健康保险理赔并应对大额医疗账单。这项免费服务使用AI模型分析患者的拒付信,然后查阅患者的保险政策和外部医学研究,起草定制化的申诉信。
其他面向消费者的AI服务则用于捕捉账单错误或解析医学术语。一些患者甚至开始使用Grok等AI聊天机器人寻求帮助。
根据医疗研究非营利组织KFF(凯泽家庭基金会)2024年8月发布的民调,四分之一的30岁以下成年人表示他们每月至少使用一次AI聊天机器人获取健康信息或建议。但大多数成年人表示,他们对AI聊天机器人提供的健康信息准确性缺乏信心。
与此同时,两党州立法者正加紧跟上步伐,通过新法规来规范保险公司、医生和其他人在医疗保健中使用AI的方式。咨询公司Manatt表示,今年已有十几个州通过了监管医疗保健中AI使用的法律。
"仅让两个机器人就患者是否应该获得某种特定护理来回争论,这感觉不是令人满意的结局,"哈佛大学法学院法律与政策诊所助理临床教授兼主任卡梅尔·夏哈尔(Carmel Shachar)表示。
"我们不想陷入一个只是加速的AI跑步机。"
黑箱难题
医疗保健可能感觉像一个黑箱。例如,如果医生说你需要手术,费用取决于众多令人眼花缭乱的因素,包括你的健康保险公司、具体健康计划、共付要求、免赔额、居住地、手术实施的医疗机构、该机构和医生是否在保险网络内,以及你的具体诊断。
一些保险公司可能在批准手术前要求预先授权。这可能涉及大量医疗文件。手术后,产生的账单可能难以解读。
Sheer Health的维滕表示,他的公司已看到数千个案例:患者医生推荐某种手术程序,但在手术前几天,患者才得知保险公司未予批准。
近年来,随着更多健康保险公司转向AI自动化理赔处理和预先授权,拒付理赔的比例有所上升。征信公司益百利(Experian)9月报告显示,今年41%的医生和其他医疗服务提供者表示其理赔被拒付率超过10%,而三年前持此说法的提供者比例为30%。
根据KFF最新数据,平价医疗法案(Affordable Care Act)市场上的保险公司在2023年拒绝了近五分之一的网络内理赔(较2021年的17%上升),以及超过三分之一的网络外理赔。
联合健康集团(UnitedHealth Group)因使用算法系统性地拒绝向老年人提供护理而在媒体和联邦立法者中受到批评,而Humana(友邦健康)和其他保险公司则面临诉讼和监管调查,指控他们使用复杂算法阻止或拒绝医疗程序的保险覆盖。
保险公司表示,AI工具可以通过自动化涉及分析大量数据的任务来提高效率并降低成本。公司表示他们正在监控AI以识别潜在问题。联合健康的一位代表向Stateline提到了该公司的AI审查委员会,这是一个由临床医生、科学家和其他专家组成的团队,负责审查其AI模型的准确性和公平性。
"健康保险计划致力于负责任地使用人工智能,为患者和医疗服务提供者创造更无缝、实时的客户体验,并使理赔管理更快、更有效,"代表健康保险公司全国贸易组织的美国健康保险计划协会(America's Health Insurance Plans)一位发言人告诉Stateline。
但各州正在加强监管。
例如,亚利桑那州、马里兰州、内布拉斯加州和得克萨斯州已禁止保险公司将AI作为预先授权或医疗必要性拒付的唯一决策者。
阿温德·文卡特(Arvind Venkat)博士是匹兹堡地区的急诊室医生,也是宾夕法尼亚州民主党州议员,他牵头提出了一项两党法案,旨在规范AI在医疗保健中的使用。
他说,在他25年的从医经历中,他目睹了新技术重塑医疗保健,但AI感觉完全不同。它是一种"积极参与者",以其他技术从未有过的方式参与人们的护理。
"如果我们能够利用这项技术来改善临床护理的交付和效率,那将是一个巨大的胜利,"文卡特表示。但他担心在没有防护措施的情况下使用AI。
他的立法将迫使宾夕法尼亚州的保险公司和医疗服务提供者在使用AI方面更加透明;要求在使用AI时必须由人类做出最终决定;并强制他们提供证据,证明在使用AI时已尽量减少偏见。
"在医疗保健领域,这关系到个人且利害攸关,我们需要确保在每位患者的情况中,我们应用人工智能的方式是关注个体患者的,"文卡特说。
患者监督
历史上,消费者很少挑战被拒付的理赔:KFF分析发现,不到1%的健康保险拒付被申诉。即使提出申诉,患者也输掉超过一半的申诉。
新的面向消费者的AI工具可能通过简化申诉流程和使其更易理解来改变这一动态。但专家表示,如果没有人类监督,AI容易出错。
"外行人可能很难理解AI何时工作正常,何时产生幻觉或提供不准确的信息,"哈佛大学法学院的夏哈尔说。
例如,AI工具可能起草一封患者认为看起来令人印象深刻的申诉信。但由于大多数患者不是医学专家,他们可能无法识别AI是否误述了医疗信息,从而破坏申诉,她说。
"挑战在于,如果患者是推动这一过程的人,他们能否恰当地监督AI?"她说。
今年早些时候,马修·埃文斯(Mathew Evins)在计划进行背部手术前48小时得知保险公司不会为其手术承保。这位68岁的佛罗里达州公关高管与他的医生一起提出申诉,但毫无进展。他使用AI聊天机器人起草了一封给保险公司的信,但同样失败了。
在儿子的建议下,埃文斯转向了Sheer Health。他表示,该公司识别出他医疗记录中的编码错误,并处理了与保险公司的沟通。大约三周后,手术获得批准。
"公共医疗体系如此糟糕,需要第三方代表患者干预,这很不幸,"埃文斯告诉Stateline。但他感激这项技术使他能够获得改变生活的手术。
"AI本身并不是答案,"他说。"当AI被理解特定问题及其影响的专业人士使用时,情况就不同了。那样你就有了一个有效的工具。"
大多数专家和立法者同意,需要人类来约束这些机器人。
AI使保险公司能够快速评估案例,并决定是否授权手术或覆盖特定医疗服务。但文卡特表示,这种闪电般快速决策的能力应该由人类来平衡。
"这就是为什么我们需要政府监管,为什么我们需要确保强制要求由人类决策者进行个体化评估。"
维滕表示,AI在某些情况下表现良好,例如当它梳理保险政策(本质上是公司与消费者之间的合同)并将政策覆盖范围与相应保险理赔联系起来时。
但他说,"存在一些AI根本无法解决的复杂案例。"这时就需要人类进行审查。
"我认为AI有巨大机会改善患者体验和整体医疗服务提供者体验,"维滕说。"我担心的是当保险公司或其他参与者使用AI完全取代客户服务和人际互动时。"
此外,越来越多的研究发现,AI可能强化医学中已有的偏见,歧视女性、少数民族和使用公共保险的人群。
"人工智能的结论可能强化歧视性模式,并以我们已有立法禁止的方式侵犯隐私,"文卡特说。
【全文结束】


