人工智能能够变革临床医生工作流程并改善患者预后,但其采用需要明确目标和防护措施。
价值、透明度、安全性、可扩展性和可靠性,是医疗IT领导者描述人工智能成功时首先想到的关键词。尽管医疗行业在技术采用方面常落后于其他领域,但却是实施AI工具的领先行业之一。事实上,根据麦肯锡最新调查,医疗行业已成为代理AI应用的三大核心领域之一。
然而,仅仅采用AI并不足够,关键在于其实际效用。临床医生期望AI能减轻文档负担并改善患者预后,而管理层则希望提升生产力、员工福祉和财务表现。
在圣安东尼奥举行的2025年CHIME秋季论坛上,医疗IT领导者分享了当前应用案例、确保AI项目成功的关键要素,以及组织如何在保持以患者和人类为中心的前提下平衡AI的利弊。
证明医疗领域AI的价值
许多医疗机构已从AI工具中获得投资回报。例如,堪萨斯大学健康系统为缓解疫情加剧的文档倦怠问题,实施了环境听写工具。该健康系统首席信息官兼AI高级副总裁克里斯·哈珀表示,团队最初尝试的工具未能达到预期效果,因此在项目中途更换了方案。
从25名医生的小规模试点开始,该系统实现了每位医生日均节省两小时的成效。随后组织扩大部署规模,并持续监测结果以确保环境听写工具符合预期。医生将节省的时间用于增加接诊量或减轻工作负荷,从而降低职业倦怠并减少认知负担。
"这对我们的成功意义重大,我们计划扩展更多功能,"哈珀强调,"聚焦解决正确的问题至关重要。"
部分医疗机构正在临床领域应用AI改善患者预后。例如,加利福尼亚州圣华金综合医院采用AI算法,为发病6-8小时窗口期的中风患者提供更优治疗。此前,此窗口期到达医院的患者通常仅接受支持性护理,因功能恢复可能性显著降低。但该算法能评估可挽救组织比例,促使医院更新延长窗口期协议,使更多患者获得功能恢复治疗。医院首席医疗信息官约瑟夫·伊佐指出,该工具显著改善了此类中风患者的预后。
在支付方领域,密歇根州Corewell Health利用生成式AI对预先授权进行标签分类。自动化总监尼科尔·尼森解释称,AI并非直接决策,而是辅助团队成员更高效地服务会员。该项目已实现50万美元的劳动力成本节约。
AI还能通过优化部门间患者交接创造价值。伊佐提到,不同专科医生对同一病历笔记的评价存在差异。圣华金综合医院为住院部、门诊部和急诊部部署同一AI听录系统,但急诊医生认为笔记完美,而住院医生则认为过于冗长,导致下游患者问题。
伊佐指出,问题根源在于初期未纳入各部门代表参与决策,仅由管理层评估工具与现有工作流程的适配性。引入跨部门协作后,医生们达成共识,解决了存在数十年的笔记问题。医院将反馈提交给供应商,对方迅速响应升级AI系统,支持定制化功能以实现更顺畅的患者交接。
医疗AI实施的关键考量
尼森建议考虑AI采用的医疗机构应营造允许快速试错的环境。Corewell Health目前已试点第四代服务代理解决方案,其策略是快速淘汰无效产品,持续寻找能让临床医生自主高效解决IT问题的方案。
堪萨斯大学健康系统正在IT和信息学团队中试点Microsoft Copilot,并计划推广至全机构。但哈珀坦言,组织认识到当前信任度不足。"技术本应是学习系统,不可能完美无缺,"他解释道,董事会却期望AI工具达到完美。他指出人类同样不完美,行业需要转变思维,建议通过超级用户开展同伴培训,展示AI如何简化工作。
生成式AI是多数医疗机构的关注焦点,但代理AI兴趣正快速上升。伊佐警示大型医疗机构能负担代理AI工具,而小型机构难以企及,呼吁提升各类组织的可及性与可负担性。
信任是代理AI的另一障碍。尼森解释,生成式AI因允许人工交互数据而取得成功——数据若不准确会立即被发现修正。但AI代理天生自主行动,她建议组织谨慎对待无需人工验证的决策权限。她也认同伊佐关于代理AI成本的观点:"我们必须对价格标签提出质疑。"
在AI对话中保持以人为本
在"重新定义医疗人机协作"分论坛中,Abridge公司临床文档解决方案主管马特·特鲁普分享道,作为前临床医生,他最大的挑战是平衡患者与家庭需求的时间分配。AI可帮助临床医生转化工作负荷,使他们能给予患者和家庭应有的关注时间。
Intermountain Health研究信息学与基因组学企业总监帕拉维·拉纳德-卡尔卡尔介绍,该机构利用AI处理Epic收件箱消息,为临床医生节省时间专注患者。该工具基于患者问题及病历上下文生成回复草稿,经医生审核后发送。
"此干预简化了工作流程,每条消息实时节省20-30秒,"她表示,"这减少了'睡衣时间'(下班后工作),帮助临床医生聚焦其最擅长的领域。"
Encompass Health高级副总裁兼首席信息官拉塞尔·耶格尔强调,增强智能必须与人类协同工作。该机构专注于"真实智能"而非单纯AI:"我们将AI与临床及商业智能结合,为决策者提供真实洞察。"他指出,AI在IT运维中可自主运行,但用于患者护理时必须设置防护措施。
尽管AI为医疗行业带来巨大潜力,风险同样并存。拉纳德-卡尔卡尔指出,数据失准、透明度缺失及安全隐私漏洞是主要风险。
"医疗的核心是人,是患者。人际互动是积极患者体验的基石。基于此,我们必须制定防护措施确保AI负责任使用,"她补充道,"识别关键绩效指标并持续监测,是衡量AI成功的重要维度。"
克利夫兰诊所网络安全业务联络人特雷西·图马强调,AI治理是成功的关键因素。
"我们必须从治理起步。人们渴望新奇工具并急于推进。AI发展迅猛,但我们必须确保建立治理框架以安全实施,"她指出,"我们都听说过幻觉和误报问题。数据质量取决于系统输入,务必确保数据优质、安全且受保护。"
拉纳德-卡尔卡尔认为风险评估与文档管理应在AI治理中发挥核心作用。通过AI治理委员会评估内外部产品是采用AI的首要步骤。算法漂移可能引入偏见,因此组织需持续监控AI工具性能。她补充道,机构还应建立工具清单,明确供应商原始测试验证方法。
Intermountain Health近期将电子健康记录迁移至Epic系统,正依赖其协助实施众多AI工具。
"我们尚未全部启用。正以审慎方式逐步推进,"她表示,"确认可监控并保持质量后,才会逐一启用。"
图马强调医疗AI采用必须"有意为之"。跨部门利益相关者参与至关重要,避免遗漏关键环节。组织不应盲目采购新工具,而应确保其能证明成本节约或解决患者体验、预后及照护体验问题。
"归根结底,我们的使命是服务患者,"她总结道,"若AI能解决这三大问题,我们必须明确其作用机制、影响范围、成本及商业用例。"
【全文结束】


