健康计划管理员应考虑AI防护措施Health plan administrators should consider AI guardrails

环球医讯 / AI与医疗健康来源:www.mercer.com美国 - 英语2025-02-01 00:00:00 - 阅读时长4分钟 - 1677字
本文探讨了健康计划管理员应如何应对人工智能(AI)在医疗保健和福利领域的应用,强调了设立防护措施的重要性,并详细介绍了如何确保AI使用的合法性和合规性,以避免潜在的风险和歧视问题。
健康计划管理员AI防护措施团体健康计划法律合规反歧视规定立法诉讼计划文件更新服务提供商监控AI使用情况查询
健康计划管理员应考虑AI防护措施

人工智能有潜力彻底改变医疗保健和福利领域,而团体健康计划服务提供商已经在不同情境中使用AI。然而,由于许多关于AI的知识仍然未知或未经证实,计划管理员应考虑设立防护措施,以鼓励负责任的使用。

总体监督应包括谨慎选择和监控使用AI的服务提供商。此外,审查团体健康计划内部的任何AI使用情况,这可能涉及以新颖的方式应用现行法律和合规要求。继续关注立法、法规和诉讼的发展,并准备好根据需要调整计划。具体步骤包括:

询问所有第三方服务提供商其在计划设计、管理和决策方面使用AI的情况。在组织内部进行同样的查询,了解哪些计划管理功能是通过AI执行的。 制定一份计划使用AI的清单。第三方管理员和承保商可能正在使用算法来决定多种类型的索赔。其他AI用途可能涉及高级分析、沟通、个性化健康和保健、福利导航和客户服务。一些医疗服务提供者正在使用AI进行医学诊断。计划受托人应意识到内部和服务提供商使用AI的情况,并在审查服务提供商和计划管理时包括AI。

理解和应用现行法律和合规要求于团体健康计划中使用的任何AI。 这可能需要新的解释。以下是几个需要考虑的例子。审查和更新《健康保险可移植性和责任法案》(HIPAA)隐私和安全培训、政策和程序,以及业务伙伴协议。确定任何新的业务伙伴。对于《心理健康平等和成瘾公平法》(MHPAEA),识别可能创建非定量治疗限制的算法,检查合规性并纳入比较分析。对于《雇员退休收入保障法》(ERISA)索赔和上诉程序,确保满足适当的时间表和流程。审查通过AI决定的索赔和上诉,以防止欺诈、浪费、滥用和歧视。

特别注意《平价医疗法案》第1557节的反歧视规定。 最终规则包括禁止使用AI或临床算法的歧视性患者护理决策支持工具。审查支持临床决策的工具,如评估患者的健康风险、预先授权要求或医疗必要性确定。这些规则要求覆盖实体努力识别任何在健康计划或活动中输入种族、肤色、国籍、性别、年龄或残疾等变量或因素的工具。覆盖实体必须减轻使用此类工具所带来的歧视风险。例如,一个用于针对高风险个体进行额外资源分配的算法可能以成本作为需求的代理指标。该算法可能会因为某些种族的患者由于各种原因(如缺乏医疗保健渠道或不信任医疗系统)而具有较低的医疗保健成本,从而错误地认为这些患者比同样患病但能获得医疗护理的患者更健康。

需要注意的是,《平价医疗法案》第1557节的反歧视规定并不直接适用于大多数雇主或团体健康计划赞助者的雇佣行为,包括提供员工健康福利。然而,这些规定通常适用于与雇主团体健康计划合作的第三方管理员或承保商。这些规定将于2025年5月1日生效。

关注立法、法规和诉讼的发展。 特朗普总统撤销了拜登总统关于安全、可靠和值得信赖的AI开发和使用的行政命令,命令多个联邦监管机构制定负责任使用AI的战略计划。一组两党参议员制定了参议院的AI政策路线图。联邦监管机构才刚刚开始发布AI法规,国会似乎也在研究这个问题,因此各州可能会率先出台AI立法。与此同时,已经提起了几起与AI相关的诉讼:

  • 第九巡回上诉法院最近恢复了一项集体诉讼,挑战使用AI处理精神健康和物质使用障碍索赔的做法(Ryan v. UnitedHealth Group)。承保商仅使用算法处理精神健康/物质使用障碍(MH/SUD)索赔,以评估进展并将案件提交同行评审。原告认为,这一过程比用于医疗/外科索赔的过程更为严格,违反了心理健康平等规则,并构成违反受托责任。
  • 其他诉讼挑战了AI在索赔管理方面的其他用途。例如,一起诉讼指控一家第三方管理员的医生使用算法自动拒绝不符合某些预设治疗标准的大批量付款,逃避医师审查过程(Kisting-Leung v. CIGNA)。其他诉讼指控两家第三方管理员使用AI(一种算法)推翻医生的建议,拒绝Medicare Advantage计划中患者的后期急性护理(Barrows v. Humana 和 Lokken v. UnitedHealth Group)。

审查计划文件和流程,以确定需要进行哪些更新以反映AI的使用。


(全文结束)

大健康
大健康