得克萨斯州参议员Charles Schwertner最近提出了一项法案,旨在限制AI在医疗决策中的作用。这项立法禁止健康保险公司仅依靠AI来决定是否批准某项医疗服务或程序,强调这些重要决策应由训练有素的医生或持牌医疗提供者做出。
健康保险行业越来越依赖人工智能(AI)来简化诸如患者理赔等流程。AI承诺更快的结果、降低行政成本和减少延误。然而,正如得克萨斯州参议员Charles Schwertner在其新提案中指出的,这种对AI的依赖也带来了严重风险,特别是在AI系统取代人类专业知识进行关键医疗决策时。
AI在健康保险中的应用是一把双刃剑。虽然它有助于提高效率,但也引发了关于公平性、透明度和准确性的担忧。保险商声称AI使他们的运营更加高效,但批评者警告说,这些算法可能会拒绝患者所需的护理,甚至有时会推翻医生的建议。
AI在医疗中的一个主要挑战是其“黑箱”性质——缺乏透明度。即使是开发先进AI技术的开发者有时也难以解释这些系统是如何得出结论的。Georgetown大学数字伦理中心的研究助理教授Will Fleisher指出,这种不透明性可能对患者产生深远影响。
Fleisher解释说:“如果一个复杂的AI系统拒绝了一项理赔,公司可能无法解释拒绝的原因。即使他们理解原因,也可能利用系统的不透明性作为不提供解释的借口。”
另一个紧迫的问题是偏见。AI系统的性能取决于其训练数据的质量,而历史数据集往往反映了现有的不平等现象。例如,算法可能会无意中偏向某些人口群体,导致结果对边缘化社区不利。批评者认为,在许多情况下,这些偏见可能导致患者无法轻易获得或负担必要的护理,从而产生生死攸关的后果。
得克萨斯州并非孤例,越来越多的州正在努力规范AI在医疗中的使用。加州、乔治亚州、纽约州和宾夕法尼亚州已经通过了类似的立法。根据Bloomberg Law的数据,截至2024年,至少有40个州引入或实施了AI相关法规。
这些立法行动紧随患者的投诉和针对大型保险公司的诉讼之后。Humana、UnitedHealth和Cigna等公司因不当使用AI算法拒绝护理而面临指控。一些诉讼称,这些系统是为了降低成本而设计的,即使这意味着推翻医生的建议。这迫使患者自费支付或放弃必要的治疗。
如果得克萨斯州的新法案得以实施,该州的保险部门将有权调查公司是否遵守新的AI规则,这将为一个技术进步远超有意义监管的领域提供急需的监督。
患者权益组织认为,任何计算机程序都无法替代人类健康的复杂性。德克萨斯州患者联盟发言人Katherine McLane强调了平衡的重要性。“患者应该得到一个将他们视为人类而非数据点的医疗系统。”McLane说,“AI可以在简化操作方面发挥作用,但在涉及改变人生的医疗决策时,医生的专业知识和患者的独特需求是无可替代的。”
对于Schwertner来说,这不仅是政策问题,更是价值观的问题。他承认AI在支持医疗系统方面的巨大潜力,但也坚称其使用存在界限。“我们不能也不应该单纯依赖算法来理解患者的复杂性和独特需求。”Schwertner说。
Schwertner提出的立法预计将于2025年9月1日推出,但仍需审查。这引发了政府、公司和公众的一个重要问题:如何在不影响患者护理的前提下,负责任地将AI整合到医疗系统中?
一个明确的前进方向是寻求平衡。AI可以协助处理更常规或行政方面的医疗任务,如分类理赔或识别大数据集中的模式,而将关键的个性化决策留给专业人士。将机器的效率与人类的专业道德监督相结合,可以使医疗保健从两者中受益。
透明度和问责制也必须是优先事项。使用AI的健康保险公司应被要求清楚解释其算法的工作原理及具体决策的理由。独立审计和强有力的州或联邦监督可以帮助确保模型按预期运行,避免无意的偏见或伤害。
最后,任何涉及AI的医疗系统都应优先考虑教育。患者、医生和立法者都需要对这项技术的工作原理有一个清晰的理解,包括其潜在的好处和局限性。这些知情讨论对于制定保护个人健康同时充分利用AI巨大潜力的政策至关重要。
AI已经开始改变医疗保健,但在涉及改变人生后果的情况下,显然我们需要谨慎行事。通过投资于以患者为中心的监督,我们可以确保这项创新技术增强而不是取代医学中不可或缺的人类关怀。
(全文结束)


