由于前所未有的新技术投资,保险公司、药物开发者和医疗保健公司都在使用AI。与此同时,联邦政府已经开始规范AI如何决定谁应该获得治疗、谁不应该获得治疗以及如何提供治疗。各州对此持谨慎态度。立法者正在迅速行动,以跟上由巨额投资推动的新兴技术的步伐,这些投资预示着医疗突破的新时代。
AI可以通过标记过时的做法或捕捉药物和治疗中的常见错误来减少医疗错误。最近的一项加拿大研究预测,通过AI可以避免高达26%的意外医院死亡。通过减少住院再入院率和消除不必要的或有害的治疗,可以节省数十亿美元。未来五年内,私人保险商可能节省800亿至1000亿美元。
消费者保护倡导者表示,同样的技术也可能通过拒绝保险覆盖或基于未经证实或有偏见的AI决策建议治疗而损害患者。一起针对Humana的诉讼称,该公司在确定资格时使用了有缺陷的AI。原告JoAnne Barrows在2021年11月因跌倒受伤住院后被送往康复设施。她因腿部受伤需六周不承重,但保险仅覆盖两周。这是许多此类案件之一,这些案件使患者与依赖AI通过算法限制护理以降低成本的保险公司相对立。
AI聊天服务可以提供医疗建议,但这些服务何时会越过界限,提供未经授权的护理?佛罗里达州的一项研究发现,ChatGPT在为患者提供泌尿科搜索的医疗建议时,正确率仅为60%。一个为患有饮食障碍的青少年提供答案的聊天机器人,如果信息不正确,可能会非常危险,甚至危及生命。去年,全国饮食障碍协会(NEDA)关闭了其名为“Tessa”的聊天机器人,因为该组织的执行董事发现该服务将寻求饮食障碍信息的患者引导到每周减重1-2磅的方法,即每天限制摄入2000卡路里。
犹他州开始设立全国首个州级AI办公室,旨在解决AI对所有政府项目及其影响的人群的破坏性影响。2024年,该办公室开始讨论监管实际上提供传统上由州许可证管理的心理健康服务的心理健康聊天机器人的法规。今年5月,科罗拉多州通过了限制“重要决策”的AI法律,包括健康保险和治疗。科罗拉多州的SB24-205是首次广泛尝试以认可FDA批准的系统的方式为消费者提供保护。
总体而言,超过十几个州在2023-2024双年度提出了立法,旨在跟上AI对医疗保健交付的影响。这些法案的重点是通过通知和限制机器学习和决策的范围及要求来保护消费者。然而,各州并不是唯一有兴趣为AI设置护栏的机构。
卫生与公共服务部通过国家卫生信息技术协调员办公室(ONC)于2024年2月发布了指导文件,为制定具体立法制定了广泛且模糊的路线图。《健康数据、技术和互操作性》(HTI-1)最终规则定义了医疗保健中基于AI和机器学习(ML)的预测软件的联邦要求。该规则是根据《联邦治愈法案》中的要求制定的。
州立法者和州长应警惕保护患者数据隐私、获得护理的权利以及不受偏见影响的权利,特别是在联邦规则治理患者数据处理和护理决策方面。“预测决策支持干预”被定义为“基于从训练数据中得出关系的算法或模型支持决策的技术,然后产生预测、分类、建议、评估或分析的输出。”目前,州立法者正在听取受到“预测决策支持干预”影响的选民的意见。
最近,28家私营医疗保健公司签署了一项自愿承诺,承诺“与同行和合作伙伴合作,确保结果符合公平、适当、有效、安全(FAVES)的AI原则。”这些公司如果未能达到这些成果,将面临潜在的刑事处罚。“有必要让开发和部署AI的人对防止非法歧视和滥用的标准负责,包括在司法系统和联邦政府中。”拜登总统认为,“只有这样,美国人才能信任AI促进民权、公民自由、公平和正义。”
州立法者和州长必须通过了解联邦层面的AI规则来保护患者和提供者,并为其选民争取透明度和公平性。在缺乏具体和统一的AI规则的情况下,各州需要领导,而不是跟随联邦行动。
(全文结束)


