医疗健康领域首批首席AI官的11点经验:质疑、规模化与慢工出细活11 lessons from healthcare’s 1st chief AI officers: Skepticism, scale and the slow work

环球医讯 / AI与医疗健康来源:www.beckershospitalreview.com美国 - 英语2026-01-30 02:52:22 - 阅读时长6分钟 - 2956字
本文基于对克利夫兰诊所、西达赛奈医疗中心及加州大学圣地亚哥健康等机构首批首席人工智能官的深度访谈,系统总结了医疗AI落地的核心经验。包括角色从技术布道者转向首席怀疑论者、突破速度认知误区、数据准备成为隐性瓶颈、早期成果多集中于运营而非临床领域、职能演变为跨部门协调枢纽、治理机制作为信任操作系统、工作流适配决定成败、阻力源于合理疑虑而非单纯反对、AI素养是规模化基础、精准问题框定优先于技术应用,以及从试点到规模化路径的组织挑战。强调医疗AI需以患者安全和临床信任为根基,避免盲目推进,通过数据治理、人员培训和渐进式变革实现技术价值,为全球医疗系统提供可复用的实践框架。
医疗健康首席AI官AI应用数据准备度治理机制工作流适配变革管理AI素养信任透明临床运营规模化慢工出细活
医疗健康领域首批首席AI官的11点经验:质疑、规模化与慢工出细活

当医疗系统在2024年左右迅速设立首席人工智能官职位时,这一角色很大程度上是理论性的。一两年后,首批AI主管们开始明确该职位的实际需求。

过去18至24个月间,克利夫兰诊所(Cleveland Clinic)、洛杉矶西达赛奈医疗中心(Cedars-Sinai)和加州大学圣地亚哥健康(UC San Diego Health)等机构设立了专职AI领导岗位,往往缺乏清晰先例或操作指南。其使命雄心勃勃:加速AI应用,同时确保患者安全、临床信任和组织责任。

如今,随着多位早期任职者接近或超过一年任期,该职位的轮廓逐渐清晰:

1. 工作重心从“AI布道者”转向“首席AI怀疑论者”。 对该角色的早期假设常偏向炒作:认为首席AI官会快速推动AI无处不在。多位领导者表示现实恰恰相反——通过不默认采用AI来建立公信力。

2023年末加入加州大学圣地亚哥健康的健康AI首席官卡兰迪普·辛格博士(Karandeep Singh, MD)指出,错误认知在于其头衔暗示他会“对所有事物使用AI”,而实际立场更为审慎且注重共识。“最大误解……是认为我会在人们不想要AI的地方强行推广,”他向《贝克医院评论》(Becker’s)表示,“我们有能力尝试某项技术,发现无效后立即叫停。”

2. 速度认知存在误区:转型是累积过程,而非瞬间完成。 普遍存在的意外是,许多利益相关者误以为AI能一夜颠覆整个系统。

自2024年末担任西达赛奈首席AI与数据官的穆尼尔·奥代(Mouneer Odeh)直言,设定合理预期是核心职责:“真正的转型是累积性的,而非即时性的。”他援引阿马拉定律——领导者高估短期影响而低估长期效应——论证AI价值真实存在,但需通过学习、工作流变革和系统成熟度逐步积累。

3. “数据准备度”成为隐性瓶颈。 最炫目的演示往往最容易实现,真正的慢工在于确保输入数据足以获得临床和运营信任。

奥代指出,最大障碍并非文化阻力,而是数据准备度。“我们常能在数小时内构建可用原型,但确保底层数据准确且AI输出可靠需耗费更多时间,”他表示。他举例说明:训练EHR工作流的AI代理需审阅“十年间积累的数千份操作指南和培训材料”。

2024年中旬被任命为弗吉尼亚州里士满弗吉尼亚联邦大学医疗系统(VCU Health)副总裁兼首席数据与AI官的阿洛克·乔杜里(Alok Chaudhary)直言不讳地认同:“AI的核心是数据。若缺乏优质数据基础……AI将寸步难行。”他描述了前18个月主要精力用于构建“基础能力”,包括建立现代数据平台、整合多系统数据并启动正式数据治理计划。

4. 早期重大成果未必源于临床领域。 2024年7月上任的克利夫兰诊所首席AI官本·沙沙哈尼博士(Ben Shahshahani, PhD)表示,他早期意外发现医疗运营领域(如收入周期管理和文档质量)存在巨大价值。

“医疗中大量机遇存在于 mundane 环节——收入周期管理和文档质量,”沙沙哈尼博士说,“我从未想过这些领域有如此机遇,尤其在利润微薄的行业中。”

5. 角色演变为矩阵协调者——因AI无处不在。 AI并非单一项目,而是遍布临床、运营、研究和供应商生态系统的数十个用例,这迫使AI主管转向企业级统筹。

“理想状态下,我们的AI战略应融入整体健康战略,并非独立存在,”辛格博士说。他补充道,关键在于分辨领导者谈论的是“一个大目标”还是“诸多小事务”,并协助匹配合适的AI类型(预测型、生成型等)与问题。

奥代描述道,临床、运营、技术、创新和合规职能间的协作是该职位核心,他正与临床信息学、AI健康研究、门诊运营、收入周期及政府事务负责人合作,以应对供应商和监管变化。

6. 治理机制不是委员会——而是信任的操作系统。 当试点项目激增时,治理成为防止意外伤害、声誉风险和“影子AI”的组织骨架。

辛格博士强调,治理体现为实用的全系统标准。例如,针对所有触及患者的AI影响内容设置“通用AI披露”条款。若AI用于患者可读的文档或消息,需在获批工具中采用标准化声明。其目的是建立信任:“若患者事后发现我们使用了AI却不知情,可能视之为信任破裂。因此我们必须 upfront 保持透明。”

乔杜里描述了构建由医学、信息安全、隐私、合规、法律、风险、监管事务及业务领袖组成的AI治理机构——由其AI主管和医师信息学家共同领导,双周会议审查可行性和风险。他的心得是:治理成熟度需要时间。“我们仍在学习……但持续改进。”

7. 工作流适配与变革管理决定AI成败。 即使AI工具在演示中表现优异,其成功取决于能否融入真实临床和运营流程。沙沙哈尼博士指出,采用挑战极少源于技术本身。

“这不仅是技术问题,”他说,“80%的挑战在于工作流和变革管理。”在克利夫兰诊所,该系统尚未部署无需人工介入的面向患者或临床的AI,强调新工具必须契合临床工作者的实际操作方式。

8. 阻力未必是反对——常源于合理疑虑。 领导者普遍将阻力视为光谱:个人对AI不适、伦理担忧及实际工作流现实。

辛格博士简明剖析:有人在个人生活使用AI,有人则不然;部分人对患者伤害或广泛影响存有“非常合理的担忧”。他的策略始于透明沟通、倾听和共享事实——并将风险“量化”。他描述了员工可提出建议和疑虑的论坛,以及学习型健康系统思维:实施、测量、迭代和转向——必要时甚至放弃AI。

奥代的实践观点相似:部署解决方案时,团队投入时间解释工具原理、解决疑虑并收集反馈——辅以大力推行AI素养教育。

9. AI素养不是锦上添花——而是规模化战略核心。 若想避免混乱地推进AI采用,不能依赖小型中心团队。必须提升全组织的基础能力。

西达赛奈将普及化接入作为支柱,奥代表示该系统已培训超1000名员工掌握AI素养。随着规模扩张,他描述了“与人力资源部的深度合作”及更广泛的变革管理支持,使同事能“安全有效地使用AI,同时释放时间处理高价值工作。”

10. 多数AI需求实非AI——首席AI官需成为首席问题定义者。 首年常见意外:组织热情高涨后,一切都被冠以“AI”,即使最佳解决方案应是工作流重构、规则化自动化或优化现有系统。

乔杜里表示,在其环境中“人人都想要AI”,但“75%情况下并非真正需要AI”。常是流程故障,或“仅需优化Epic系统工作流”,或更简单的算法方案。他将该职位定位为跨职能角色:“这角色……本质非技术。更多关乎关系构建”,倾听、理解业务问题并匹配恰当方案。

辛格博士认同:向故障流程添加AI无法修复问题——“技术无法单独解决问题。”

11. 早期成果至关重要——但最难的是规划从试点到落地的路径。 即使热情高涨,领导者描述了混乱的中间阶段:采购审查、数据保护要求、路径不清晰及看似缓慢的治理机制。

乔杜里描述了当需求附带指定外部方案时产生的摩擦——随后需经隐私、合规和信息安全审查。他表示系统正努力构建更有序的流程,因当前状况“可能引发困惑……甚至挫败感。”

与此同时,切实的成功案例改变内部讨论。乔杜里指出环境化文档(ambient documentation)是转折点:超500名医师使用该工具,临床医生向他反馈“ pajama time 已消失”,无法想象回归旧模式。

【全文结束】