构建安全有效的医疗保健AI数据管道 | 观点Creating a data pipeline for safe and effective healthcare AI | Viewpoint | Chief Healthcare Executive

环球医讯 / AI与医疗健康来源:www.chiefhealthcareexecutive.com美国 - 英语2026-03-04 02:52:38 - 阅读时长5分钟 - 2043字
本文深入探讨了医疗保健领域构建安全有效AI数据管道的关键挑战与解决方案,分析了非结构化数据和信息孤岛对医疗AI发展的制约,阐述了AI在提升临床效率、优化资源分配和推动医学研究中的多重价值,提出了医学对齐的端到端数据管道设计理念,强调了必须建立符合伦理规范的实施框架,包括消除数据偏见、确保临床专家全程参与和持续监控AI性能,为医疗组织安全采用AI技术实现全人护理转型提供了系统性指导,同时警示了大型语言模型在医疗场景中"幻觉"问题的严重风险。
医疗保健AI健康数据数据管道非结构化数据数据孤岛全人护理伦理AI安全AI临床专家偏见消除人工监督端到端管道机器学习真实世界证据社会决定因素
构建安全有效的医疗保健AI数据管道 | 观点

为了让人工智能在医疗保健领域充分发挥潜力,模型必须基于高质量数据进行训练,但非结构化和分散存储的数据正在阻碍这一进程。

医院每年产生50拍字节的数据,这超过了美国国会图书馆2022年管理数据量的两倍。

医疗机构、支付方和研究人员有效利用这些健康数据的能力,有潜力改善患者和人群健康结果,促进创新和医学进步,提高运营效率,并降低整体医疗保健成本。

不幸的是,利用健康数据可能极具挑战性,因为很大一部分数据是非结构化的,以PDF、传真或散文格式的临床记录形式存在。

即使健康数据是结构化的,其中大部分也困在数据孤岛中,使得这些数据难以提取和共享。这是一个巨大的障碍,因为推动最具影响力发现所需的数据以及探索医疗保健新前沿的数据都埋藏在临床记录中。

AI的承诺

人工智能(AI)模型有望提高医疗机构中的工作效率和行政效率。这可以帮助缓解因人员不足导致的临床医生职业倦怠。

AI可以在几秒或几分钟内完成医疗机构员工可能需要数小时才能完成的任务(如手动病历审查)。此外,AI识别护理缺口和优化索赔编码的能力,使医疗机构能够产生新的收入。

此外,AI可以解锁其他数据(如健康的社会决定因素(SDoH))的价值,这些数据可用于指导临床决策和研究。SDoH数据包括经济稳定性、教育水平、交通获取、医疗保健获取和质量、社区环境和安全,以及社交互动和支持,对于发展全人护理方法和塑造公共卫生政策至关重要。

除直接护理应用外,AI模型在医学领域有许多用途,不仅限于直接临床护理。支付方可以使用这些模型来加速和提升风险调整绩效,提高承保和定价准确性,并发现护理缺口和向临床项目转诊的条件。制药公司可以部署AI来加速寻找最合适临床试验参与者的过程,汇编和分析上市后真实世界证据(RWE)数据,并为新药和治疗发现提供动力。

打破数据瓶颈

为了让AI在医疗保健领域充分发挥潜力,模型必须基于高质量、可访问的数据进行训练。不幸的是,非结构化和分散存储的数据正在扰乱本应顺畅运行的数据管道,严重损害数据质量,并削弱AI在医疗保健领域的潜力。

更复杂的是,从数据孤岛中提取非结构化数据只是第一步。这些数据还必须在成为可用数据之前进行组织、分离、编码和总结。现有技术通常只解决这个复杂过程中的一个步骤。而且,虽然窄域AI应用在执行特定任务方面很有效,但缺乏处理整个数据旅程的广度。

相反,大型语言模型(LLMs)可以执行广泛的任务,但对现实世界医疗数据的性能有限,这限制了这些模型在临床环境中单独使用的效用。最令人担忧的是,LLMs容易产生"幻觉",即"编造"事实——在医疗保健领域,这绝对是一个无法接受的问题。

医疗保健组织不能依赖碎片化的解决方案或未经验证的技术。他们需要的是一个医学对齐的端到端数据管道——一个设计用于管理整个数据生命周期的单一统一平台。这样的管道能够实现无缝集成,将原始、非结构化或分散存储的数据转化为可操作的洞察。

通过解决整个数据旅程——从提取和组织(包括拆分PDF以及手写笔记和文档的数字化和解释)到总结、情境化和实际应用——该管道确保组织能够最大化其数据的临床、运营和财务价值。没有它,AI的潜力将无法实现。

设计安全有效的数据管道

虽然AI在医疗保健领域的前景十分广阔,但其采用因合法的安全和伦理问题而放缓。美国医学会(AMA)和其他组织提出了确保AI以伦理、公平和透明方式部署的指南。然而,实施这些原则的责任最终落在医疗保健组织身上。为确保安全有效的AI,组织必须:

  • 制定与当前护理标准一致的政策,确保AI应用适合临床使用,并符合当前护理标准。
  • 让临床专家从多学科角度评估AI工具的质量和相关性,并了解不同培训水平的临床医生如何使用和受这些工具影响。
  • 了解并努力消除偏见,这些偏见可能通过偏爱某些人群而延续健康不平等。
  • 持续监测AI性能,以检测和解决动态数据环境中出现的偏见或准确性下降问题。

同样重要的是在AI过程中保持人工监督。临床医生必须积极参与,利用他们的专业知识验证AI生成的洞察并做出关键决策。这种方法与监管机构(包括美国食品药品监督管理局和加拿大卫生部)制定的《医疗设备良好机器学习原则》原则#7一致。保持"人在环路中"确保AI支持而非取代医疗保健专业人员的细微判断和经验。

通过将这些伦理要求纳入医学对齐数据管道的实施中,医疗保健组织可以为AI采用建立坚实基础。这种方法不仅保护了患者信任,还确保AI能够以安全、公平和有影响力的方式实现其改变医疗保健的潜力。

结论

AI可以成为医疗保健转型和全人护理及疗法的催化剂和推动者。然而,如果AI在可以访问、提取和组织的数据量上受到限制,就无法满足这些雄心勃勃的期望。一个专为健康数据设计的全面端到端管道可以提供安全和伦理的解决方案,从而改变医疗保健。

Tim O'Connell是emtelligent的CEO兼联合创始人,也是一名执业放射科医生。

【全文结束】