医疗保健组织必须仔细审查AI工具,解决患者的担忧,并关注标准和法规,这是在最近的一次Healthcare Dive虚拟活动上,行业专家们提出的观点。2024年12月3日,Sydney Halleman编辑 * 发布 * 分享 * 发布 * 打印 * 邮件 * 许可
Healthcare Dive记者Emily Olsen在2024年11月19日的虚拟小组讨论中与Maulin Shah和Aarti Ravikumar进行了交谈。Joey Sirmons / Healthcare Dive
您可以在此处观看完整的活动。
医疗保健组织在采用人工智能工具时面临许多障碍。提供者必须解决患者的担忧,而付款人和其他生命科学公司则努力平衡效率承诺与伦理问题,如偏见。尽管如此,他们仍然寄希望于AI能够自动化例行任务,减少医疗支出和浪费,释放临床医生更多的时间与患者交流,从而彻底改变医疗保健行业。
但自ChatGPT通过大众化生成式AI流行以来已超过两年,医疗保健行业仍在努力跟上如何监管、测试和实施这些工具的步伐。以下是八位医疗保健专家就组织实施AI时应考虑的问题以及如何制定标准和法规的建议。
提供者如何评估AI工具
当决定是否整合AI工具时,提供者应采取的第一步是评估该工具将在何种临床环境中使用。Mayo Clinic Platform的医疗总监Sonya Makhni表示,并非每个工具都适合诊所中的每项任务。“适用于我的临床环境的AI算法可能不适用于另一个,反之亦然。”Makhni说,“医疗系统需要了解……应该注意什么,他们需要了解自己的患者群体,以便做出明智的决定。”
尽管提供者必须评估AI工具,但由于这些工具的复杂性,分析它们存在障碍,因为算法和模型可能难以理解。“我们的劳动力已经很紧张了,”Makhni说,“我们不能期望每个人都去攻读数据科学或人工智能的硕士学位来解释解决方案。”
为了解决这个问题,提供者应转向公共和私营联盟,例如非营利组织Coalition for Health AI,以获得评估AI工具的指导原则。“我们已经学到了很多关于解决方案应遵循的原则,”Makhni说,“所以,安全性、公平性、有用性、透明度、可解释性、隐私等,这些都是我们在查看AI解决方案时应使用的标准。”
解决患者担忧
一旦提供者决定整合AI工具,他们又面临一个潜在的障碍:患者。随着AI工具越来越受欢迎,患者对医生办公室使用该技术表示担忧。去年,皮尤研究中心的一项调查显示,60%的受访美国成年人表示,如果他们的医生依赖AI进行医疗护理,他们会感到不舒服。为了使患者更加放心,Providence医疗系统的首席医疗信息官Maulin Shah表示,临床医生应强调目前AI仅起支持作用。“在很多方面,AI只是更好地支持和提供决策支持,以防止医生遗漏某些事情或提供建议。”Shah说。
虽然AI工具刚刚受到公众欢迎,但患者可能会感到更好,因为他们知道AI在医疗领域已经存在很长时间了。Atlantic Health System的首席医疗信息官Aarti Ravikumar提到了变革性的工具,如人工胰腺或闭环混合胰岛素泵,这对依赖胰岛素的患者来说是一个“游戏规则改变者”。“所有这些工作都是使用人工智能算法完成的,”Ravikumar说,“因此,我们的医疗设备或电子病历中嵌入了许多AI工具,而且已经有一段时间了。”
“这些工具都不会从医患互动或医疗决策中排除临床医生,”Ravikumar说,“如果我们达到自动决策并排除临床医生参与决策过程的阶段,我认为那时我们必须解释得更多。”
应对错误和偏见
每个组织在整合AI模型时都会遇到故障,但在医疗保健中,偏见和幻觉(即AI工具产生虚假或误导信息)可能导致患者护理中断。提供者并不是唯一需要应对偏见的医疗保健组织。付款人因使用AI工具拒绝医疗护理而受到批评,科技公司也被指责创建加剧现有医疗保健差异的工具。
Google Cloud的全球医疗保健总监Aashima Gupta认为,生成式AI公司必须保持人类参与,包括来自用户(如专家、护士或临床医生)的反馈。“对我来说,这种反馈输入将使生成式AI在特定用例中更加有效,”Gupta说。AI公司还应彻底测试其模型。在Google,专门团队试图通过欺骗手段(如尝试引发错误答案)来破坏AI工具。她补充说,强大的开发和保持人类参与对于控制错误至关重要。
然而,虽然组织应谨慎对待错误和偏见,但AI工具可能代表了一个机会,可以尝试减轻医疗保健中的偏见。咨询公司McKinsey的合伙人Jess Lamb表示:“医疗保健系统中本来就有很多偏见,所以我们必须记住,我们并不是从一个完美的起点开始的。”“实际上,我们可以利用AI和一些有意识的监控来改善我们在医疗保健偏见方面的现状,这是一个巨大的机会。”“我们总是谈论使用AI时偏见带来的负面影响,但我认为这里也有很大的正面影响,可以减轻我们看到的一些现有偏见。”她补充道。
制定医疗保健AI的法规和标准
虽然医疗保健组织正在决定是否实施AI,联邦政府和私营联盟也在努力制定如何监管AI的方法。尽管联邦政府通过规则制定等方式在尝试监管这些工具方面取得了一些进展,但行业的标准仍处于早期阶段。
HHS的技术政策助理部长兼代理首席AI官Micky Tripathi表示,与两年前AI主流化相比,AI的采用速度更快,这加大了政府出台监管的压力。“未来,政府和私营行业的合作将是关键,”Tripathi说。“这是一个需要公私合作的过程。”
Tripathi还想知道何时监管将促使私营行业采用自己的标准和认证工具。在行业内的另一个领域,政府为电子健康记录公司提供了申请自愿认证的标准。“例如,是什么驱使像Providence Health这样的机构感到有必要使用或获得某种认证或批准……来自提供某些验证AI模型服务的组织?”他问道。“目前,这只会增加开发这些解决方案的开发商或实施这些解决方案的提供者组织的成本。”
虽然联盟可以提供高层次的AI框架,但组织还需要开放标准来帮助解决临床AI用例的基层问题,Providence的首席战略和数字官Sara Vaezy说。“我们需要类似于互操作性方面取得的所有进展的开放标准,”Vaezy说。“今天的挑战是,联盟离我们实际工作的领域还很远,我们需要迅速缩小这一差距。我认为我们可以通过创建开放标准来实现这一点。”
咨询公司Virtue的创始人兼CEO Reid Blackman认为,培训提供者需要与制定标准同步进行。它还可以帮助填补与AI相关的监管或治理空白。“你可以做很多事情来教育普通医生、护士等,让他们了解这些风险,”他补充道。“培训是……确保事情不会出错的重要部分,”Blackman说。
(全文结束)


