建立消费者对AI创新的信任:医疗保健领导者的关键考虑因素Building Consumer Trust in AI Innovation: Key Considerations for Healthcare Leaders

环球医讯 / AI与医疗健康来源:medcitynews.com美国 - 英语2024-12-30 04:00:00 - 阅读时长5分钟 - 2153字
本文探讨了随着AI在医疗保健领域的应用日益普及,消费者对其信任的重要性,以及医疗保健领导者应如何应对相关风险,确保患者数据的安全和隐私,同时推动AI技术的创新和发展。
AI医疗保健消费者信任健康数据隐私数据分析法规创新临床决策非结构化数据数据治理重新识别风险患者信息电子健康记录LLMsChatGPT护理计划德勤FierceHealthSermoPew研究中心
建立消费者对AI创新的信任:医疗保健领导者的关键考虑因素

随着人工智能(AI)在医疗保健和医疗研究中的应用变得越来越主流,与AI驱动分析相关的风险也在演变——并且有可能导致消费者信任的破裂。根据Pew研究中心的一项调查,作为消费者,我们倾向于免费在网上提供我们的健康信息,例如当我们向“谷歌医生”询问“如何治疗断趾”时。然而,当想到我们的医生会基于对我们的医疗数据的分析使用人工智能进行诊断时,许多人会感到不安。

那么,如果消费者知道他们大量的医疗数据被上传到AI驱动的模型中进行分析以推动创新,他们会更加担忧吗?这是医疗保健领导者可能需要自问的问题,特别是考虑到将患者数据上传到这些模型的复杂性、精细度和责任。

最近由Fierce Health和医生社交网络Sermo进行的一项调查显示,76%的受访医生使用通用大型语言模型(LLMs),如ChatGPT,来进行临床决策。这些公开可用的工具提供了诸如药物潜在副作用、诊断支持和治疗计划建议等信息。它们还可以通过环境监听实时捕捉医生从患者接触中记录的笔记,这是一种越来越受欢迎的方法,可以减轻医生的行政负担,使他们能够更专注于护理。在这两种情况下,成熟的做法对于融入AI技术至关重要,例如使用LLM进行事实核查或作为探索点,而不是依赖它来解决复杂的护理问题。

但有迹象表明,利用LLMs进行护理和研究的风险需要更多关注。例如,围绕着被输入AI模型进行分析的患者数据的质量和完整性存在重大担忧。大多数医疗数据是非结构化的,捕获在电子健康记录(EHR)中的开放字段、患者消息、图像甚至扫描的手写文本中。事实上,一半的医疗机构表示,不到30%的非结构化数据可用于分析。此外,“非结构化数据”类别中的数据类型也存在不一致。这些因素限制了对患者和人群健康的整体看法,增加了AI分析出现偏差的可能性,反映出的数据可能无法充分代表特定人群或不完整。

尽管有关于保护健康信息(PHI)的法规使得一些研究人员和分析师无法使用所有可用的数据,但数据存储和信息共享的巨大成本是为什么大多数医疗数据未被充分利用的主要原因之一,尤其是在与其他行业相比的情况下。此外,在应用高级数据分析的同时保持遵守医疗法规(包括与PHI相关的法规)的复杂性也是一个重要原因。

现在,医疗保健领导者、临床医生和研究人员正处于一个独特的转折点。AI具有巨大的潜力,可以通过利用临床数据进行分析来推动创新,而这些方式在两年前还只能想象。在一个六分之一的成年人每月至少一次使用AI聊天机器人获取健康信息和建议的时代,展示AI在医疗保健领域的力量,超越“谷歌医生”,同时保护患者最关心的事情——如他们的健康数据的隐私和完整性——对于确保消费者对这些努力的信任至关重要。挑战在于在遵守健康数据相关法规的同时,创造性地采用AI驱动的数据分析和利用方法。

采取正确的AI分析措施

随着AI在医疗保健领域的应用加速,现代数据管理策略需要一种复杂的数据保护方法,以消费者为中心,同时满足不断变化的监管环境中有效数据合规的核心原则。

以下是领导者和研究人员在保护患者隐私、合规性以及最终确保消费者信任方面需要考虑的三个关键问题:

1. 以消费者信任为核心。不要仅仅对数据隐私和保护的法规做出反应,而是要考虑您的努力对您服务的患者的影响。当患者相信您有能力安全、可靠地利用数据进行AI创新时,这不仅有助于建立优化AI解决方案所需的信任水平,还能鼓励他们分享自己的数据用于AI分析,这对于构建个性化护理计划至关重要。如今,根据德勤的调查,45%的医疗行业高管优先考虑建立消费者信任,以便消费者更愿意分享他们的数据并使其数据可用于AI分析。

保护消费者信任的一个重要步骤是:实施严格的控制,谁可以访问和使用数据——以及如何使用。这一有效的数据保护核心原则有助于确保遵守所有适用法规。它还增强了组织生成实现更好健康结果所需的洞察力的能力,同时获得消费者的认可。

2. 建立AI创新的数据治理委员会。在商业环境中适当使用AI取决于多个因素,从评估涉及的风险到数据实践的成熟度、客户关系等。因此,数据治理委员会应包括来自健康IT、临床医生和跨学科的专业人员,从护士到人口健康专家再到收入周期团队成员。这确保了在适当的时间进行正确的数据创新项目,并使组织资源提供最佳支持。它还将所有关键利益相关者聚集在一起,确定使用AI驱动分析的风险和回报,并确定如何建立适当的数据保护而不必扼杀创新。与其“自己评价自己的工作”,不如考虑外部专家是否能提供价值,以确定是否建立了适当的保护措施。

3. 减轻重新识别敏感患者信息的风险。认为简单的匿名化技术,如删除姓名和地址,足以保护患者隐私是一种误解。现实情况是,不良行为者使用的先进重新识别技术往往可以拼凑出所谓的匿名数据。这需要在数据静态时采取更复杂的方法来保护数据免受重新识别的风险。这是一个不再适合通用数据治理方法的领域。对于组织来说,一个关键的战略问题是:“我们将如何解决重新识别风险——我们如何持续评估这些风险?”

虽然医疗保健组织在有效实施AI方面面临一些最大的障碍,但他们也处于引入这一技术最具变革性应用的有利位置。通过解决与AI驱动数据分析相关的风险,医疗保健临床医生和研究人员可以更有效地利用现有数据——并赢得消费者信任。


(全文结束)

大健康
大健康