一名医生接诊了一位患有结肠癌的新患者。在过去的一年里,这位患者在四个不同城市的多个医疗机构接受了治疗。他的病情迅速恶化。
收集和总结超过300页的关键背景信息可能需要几周的时间,这可能会让临床医生在短时间内难以理清头绪,从而无法及时为患者提供所需的护理。
现在想象一下,这位患者住院超过了三周。由于并发症和认知变化,他无法返回工作岗位,不得不请假。六个月后,他面临房屋被止赎的风险。
生成式AI本可以极大地改变这位患者的命运。
任何人走进医生办公室时都可能知道,医疗行业是一个大量收集高度敏感数据的行业。但这些详细的信息可能并未得到有效利用,甚至根本没有被使用。数据共享、评估和使用的速度往往意味着生与死的差别。然而,在利用生成式AI改进系统方面,许多患者可能会持怀疑态度。
这使得医疗保健处于一个熟悉但具有挑战性的位置。尽管该行业长期以来一直在努力维持消费者的信心,但它应该考虑建立一种新的信任——即医疗消费者与新兴的生成式AI技术之间的信任。
如果成功的话,回报将是巨大的。能够获得消费者对AI技术信任的医疗机构将能够很好地利用这项技术,使护理更加高效、可及和公平。反过来,这可以提高护理质量、健康结果和整体患者体验。
生成式AI已经在某些方面应用于医疗保健。这项技术已经被用于处理一些行政任务,并且还被用于聊天机器人、翻译服务、账单编码、病历摘要和就诊记录。但要超越这些例行任务,还需要医护人员和患者的更大信任。
解决生成式AI怀疑的方法
虽然美国医学会调查的医生们看到了使用AI的优势,但他们也担心这项技术可能会影响他们与患者的关系。德勤健康解决方案中心发现,人们对生成式AI可能产生的信息表示不信任。那么我们如何找到平衡呢?
以下是医疗保健领导者可以帮助行业和患者克服对生成式AI怀疑的一些方法:
1. 扩大影响
有数据显示,人们似乎对由AI生成的健康建议持谨慎态度。当被问及为什么他们不使用生成式AI进行健康和保健目的时,德勤2024年医疗保健消费者调查中有30%的受访者表示他们不信任这些信息。这一比例从2023年的23%上升到了30%。
通过定义强有力的治理实践,医疗机构将更有可能在降低风险的同时更好地使用这项技术。此外,组织应开发一致可靠的数据治理方法,以支持负责任和道德的AI。
在全国范围内,政策制定者应继续考虑定义透明度和隐私法规。在当地,医院和医疗保健组织应确保生成式AI的使用符合所有相关的隐私法律,包括《健康保险流通与责任法案》(HIPAA)。首席伦理官和其他类似角色可以帮助确保这种治理。
2. 动员临床医生
有一个机会可以让74%的患者认为最值得信赖的医疗信息来源——临床医生——成为生成式AI的倡导者。
通过AI,临床医生可以:
- 消除行政任务。
- 减少审查和理解患者病历所需的时间。
- 结合病史和社会决定因素,获得更全面的患者背景。
- 更快地做出诊断。
- 以更清晰简单的方式向患者传达信息。
所有这些做法都有助于减少临床医生的职业倦怠,并为他们提供更多机会在其专业领域内发挥最高水平,同时改善与患者的关系。
3. 优先考虑患者的透明度和隐私
如果患者了解生成式AI是如何用于读取实验室结果、解释治疗方法和改善结果的,他们可能会更倾向于信任它。我们发现,64%的受访消费者支持他们的医疗保健提供者使用生成式AI——只要他们知道自己的信息是如何被使用的,并且确信他们的隐私得到了保护。
如果前面提到的假设患者受益于生成式AI,情况会怎样?通过在几秒钟内而不是几周内汇总数百份记录并总结他的数据,患者可以更快地得到治疗,很可能带来更好的结果。住院时间可能缩短,甚至完全避免。他或许能够保住工作,避免房屋被止赎。
用生成式AI构建一个可信的系统
生成式AI的潜力远远超出了单一患者或组织。它不仅有助于改善健康结果,并赋予患者更多关于其护理的知情决策权,还可以帮助减少临床医生的职业倦怠,并大幅降低提供者、设施和保险公司成本。
这一切都可以加起来形成一个更强健、更值得信赖的医疗保健系统。
(全文结束)


