人工智能正进入医疗保健领域 护士被要求信任它AI Is entering health care, and nurses are being asked to trust it | Scientific American

环球医讯 / AI与医疗健康来源:archive.is美国 - 英语2026-03-06 00:36:51 - 阅读时长12分钟 - 5976字
本文深入剖析了人工智能在医疗保健系统中的快速渗透及其对护理实践的深远影响,通过内华达州医院败血症预警系统误报、加州大学戴维斯医疗中心生物按钮监测设备失效等典型案例,揭示了当前医疗AI存在的警报不准确、解释性差、与临床工作流脱节等核心问题,同时探讨了医疗机构过度追求技术革新而忽视人员配置与安全风险的矛盾,强调在AI辅助决策中保留医护人员专业判断的必要性,指出真正的医疗创新应以增强而非取代人类临床直觉为目标,确保技术应用真正服务于患者安全与护理质量提升。
人工智能医疗保健护士败血症警示临床判断算法模型BioButtonChatEHRSofiya患者监测假阳性警报人机交互临床记录护理团队技术信任医疗AI监管
人工智能正进入医疗保健领域 护士被要求信任它

人工智能

亚当·哈特(Adam Hart)在内华达州亨德森市的圣罗丝多米尼克医院(St. Rose Dominican Hospital)担任护士已有14年。几年前,当他被安排到急诊科帮忙时,正在听取救护车对一名刚到达患者的报告——一位血压危险偏低的老年妇女——这时医院电子系统中突然弹出了一个败血症警示。

败血症是对感染的危及生命的反应,是美国医院死亡的主要原因,早期治疗至关重要。该警示促使值班护士指示哈特立即将患者送入诊室、测量生命体征并开始静脉输液。这是标准操作流程;在急诊室,这通常意味着速度至上。

但当哈特检查这位妇女时,发现她锁骨下方有一个透析导管。她的肾脏功能已经跟不上需求。他警告说,常规的静脉输液洪流可能会使她的系统不堪重负,最终进入肺部。值班护士仍因医院人工智能系统生成的败血症警示而要求他执行操作。哈特拒绝了。

一位医生听到了逐渐升级的对话并介入。医生没有使用输液,而是下令使用多巴胺来提高患者的血压而不增加血容量——避免了哈特认为可能导致危及生命并发症的情况。(医院发言人表示,他们无法对具体案例发表评论,但医院将AI视为"支持而非取代我们护理团队专业知识和判断的众多工具之一"。)

这种动态在美国医疗保健中正变得熟悉。在过去的几年里,医院已将算法模型融入常规实践。临床护理通常依赖于将患者症状与严格协议相匹配——这正是自动化的理想环境。对于疲惫不堪的劳动力来说,将文书等常规任务交给AI的吸引力是不可否认的。

这些已实施的技术涵盖了从计算简单风险评分的预测模型到承诺自主决策的智能体AI——使系统能够在很少人工干预的情况下调节患者的氧气流量或重新确定急诊分诊队列的优先级。几个月前在犹他州启动的一个试点项目使用具有智能体功能的聊天机器人技术来续开处方,支持者称这给了医护人员更多时间,尽管医学会反对移除人工监督。在全国范围内,医疗系统正在使用类似工具来标记风险、被动监听患者就诊、生成临床记录、通过可穿戴设备监测患者、将参与者匹配到临床试验,甚至管理手术室和重症监护室转移的后勤工作。

护士们目睹了不完善的产品如何成为政策——然后成为他们的问题。

该行业正在追逐真正持续护理的愿景:一种决策基础设施,通过结合病历中的内容——实验室检测结果、影像、记录、药物——与人口数据以及人们使用可穿戴设备和食物记录等自行生成的数据,在预约之间持续关注患者。它监测有意义的变化,发送指导或提示,并标记需要人工干预的案例。支持者认为,这种数据密集型、始终开启的监测超出了任何人类提供者的认知范围。

其他人则表示,临床医生必须保持参与,将AI用作帮助他们理解海量数据的工具,而不是自动驾驶仪。去年,斯坦福医学推出了ChatEHR,一种允许临床医生与患者病历"聊天"的工具。一位医生分享说,该工具发现了癌症患者病历中埋藏的关键信息,帮助包括六位病理学家在内的团队做出了明确诊断。"如果这不能证明电子健康记录的价值,我不知道什么能证明,"他们报告说。

与此同时,根据纽约市纪念斯隆凯特琳癌症中心(Memorial Sloan Kettering Cancer Center)首席战略官阿内泽·奥弗多尔(Anaeze Offodile)的说法,在许多医院楼层,这些数字承诺经常破裂。他指出,有缺陷的算法、糟糕的实施和低投资回报导致一些项目停滞。在一线,负责照顾患者的护士对未经验证的工具越来越警惕。这种摩擦已经从病房转移到街头。在过去的两年里,加利福尼亚州和纽约市的护士举行了示威活动,以引起人们对进入医疗保健系统的不受监管的算法工具的关注,他们认为,尽管医院投资于AI,但床边仍然严重人手不足。

败血症预测已成为一个警示案例。美国各地的医院广泛采用了信息健康技术公司Epic的败血症预测算法。后来的评估发现,其准确性远低于市场宣传。Epic表示,临床环境中的研究发现其败血症模型改善了结果,并且此后已发布了一个声称性能更好的第二版。尽管如此,护士们还是看到了一个不完善的产品如何成为政策——然后成为他们的问题。

根据2024年的一项护理调查,倦怠、人员短缺和日益增多的职场暴力正在削弱护理队伍。这些压力在去年11月纽约市市政厅的台阶上爆发,当时纽约州护士协会的成员集会并向市议会医院委员会作证。他们认为,该市一些最大的私人系统正在向高管和AI项目投入资金,而医院部门仍然人手不足,护士面临日益升级的安全风险。当本故事在1月中旬付印时,纽约市医院系统的15,000名护士正在罢工,要求更安全的人员配置水平和工作场所保护。

新的AI驱动监测模型经常以伴随其他行业中AI的那种炒作进入医院。2023年,加州大学戴维斯医疗中心(UC Davis Health)在其肿瘤学骨髓移植单元推出了BioButton,称其为"变革性的"。该设备是一种佩戴在患者胸部的小型六角形硅胶传感器,持续监测心率、体温和呼吸模式等生命体征。

在病房中,它经常生成护士难以解读的警报。对于在加州大学戴维斯医疗中心工作了17年的注册护士梅丽莎·比比(Melissa Beebe)来说,这些提示提供的可操作数据很少。"这就是真正成问题的地方,"她说。"它很模糊。"通知标记了生命体征的变化但没有具体说明。

比比说,她经常跟随那些无果而终的警报。"我有自己的内部警报——'这个患者有问题,我想密切关注他们'——然后BioButton会有自己的事情发生。它做得太过分了,但并没有真正提供很好的信息。"

作为加州大学戴维斯医疗中心加州护士协会的工会代表,比比在设备推出前根据工会合同要求与医院领导层进行正式讨论。"它被过度炒作:'哦,天哪,这将是非常变革性的,你们能这样做真是太幸运了',"她说。她觉得当她和其他护士提出问题时,她们被视为对技术有抵触。"我是个'为什么'护士。要理解某事,我必须知道为什么。为什么我要这样做?"

护士们的担忧包括该设备如何在不同类型的身体上工作以及他们被期望对警报做出多快的反应。比比说,领导层几乎没有明确的答案。相反,护士们被告知该设备可以帮助早期检测出血性中风,这在她所在的病房上患者尤其有风险。"但问题在于,对于中风,心率、体温和呼吸频率将是一些相当晚期的问题迹象,"她说。"到那时你可能快要死了。"出血性中风的早期迹象可能是难以唤醒患者、言语不清或平衡问题。"这些都不是BioButton参数。"

比比说,最终,加州大学戴维斯医疗中心在试点该技术约一年后停止使用BioButton。"他们发现,对于那些真正生病并会从这种警报中受益的患者,护士发现得快得多,"她解释道。(加州大学戴维斯医疗中心在一份声明中表示,它与现有监测器一起试点了BioButton,最终选择不采用它,因为它的警报没有比当前监测提供明显优势。)

比比认为,由多年培训和经验塑造并由技术设备的微妙感官线索和信号告知的临床判断无法自动化。"我无法告诉你有多少次我有那种感觉,'我对这个患者感觉不对劲'。可能只是他们的皮肤看起来或摸起来的方式。"在加利福尼亚州莫德斯托的凯撒医疗中心(Kaiser Permanente Hospital)拥有13年经验的重症监护护士埃尔文·米切尔(Elven Mitchell)也表达了这一观点。"有时你可以看到一个患者,仅仅看着他们,[就知道]他们状况不佳。它没有显示在实验室结果中,也没有显示在监测器上,"他说。"我们有五种感官,而计算机只获得输入。"

临床护理通常依赖于将患者症状与严格协议相匹配——这是自动化的理想环境。

专家表示,算法可以增强临床判断,但不能取代它。"这些模型永远不会获得提供者拥有的所有数据,"加州大学伯克利公共卫生学院蓝十字加利福尼亚杰出副教授齐亚德·奥贝迈尔(Ziad Obermeyer)说。这些模型主要分析电子病历,但并非所有内容都在数字文件中。"事实证明,这些都是真正重要的东西,比如,他们如何回答问题?他们如何走路?医生和护士看到并理解关于患者的这些微妙事情。"

米切尔也服务于他医院的快速反应团队,他表示他的同事对警报缺乏信任。他估计中央监测团队生成的大约一半警报是假阳性,但医院政策要求床边工作人员评估每一个警报,将护士从已经标记为高风险的患者身边拉走。(凯撒医疗中心在一份声明中表示,其AI监测工具旨在支持临床医生,决策仍由护理团队保留,并且系统经过严格测试和持续监控。)

"也许50年后它会更有益,但就目前而言,它是一个正在努力使其工作的系统,"米切尔说。他希望在这个领域有更多的监管,因为在极端情况下,医疗保健决策可能关乎生死。

在为本文进行的采访中,护士们一致强调,他们并不反对医院中的技术。许多人表示,他们欢迎那些经过仔细验证并明显改善护理的工具。他们认为,让他们警惕的是经过大量营销的AI模型的快速推出,而这些模型在现实世界环境中的表现未能兑现承诺。推出未经验证的工具可能产生持久后果。"你正在在一个临床医生和提供者的世代中制造不信任,"一位出于对职业报复担忧而要求匿名的专家警告道。

担忧不仅限于私人供应商。纽约州护士协会主席、护士南希·哈甘斯(Nancy Hagans)表示,医院有时会绕过曾经管理新医疗技术引入的安全保障。

风险不仅仅是理论上的。伯克利公共卫生学院的奥贝迈尔教授发现,用于患者护理的一些算法实际上是种族主义的。"它们每年用于这些决策的筛查对象约为1亿至1.5亿人,因此非常广泛,"他说。"这确实提出了一个问题,为什么我们没有一个系统在它们部署并开始影响所有这些重要决策之前发现这些问题,"他补充道,将医疗保健中AI工具的引入与医药开发进行了比较。与药物不同,AI没有单一的把关者;医院通常需要自己验证工具。

在床边,不透明性会产生后果:如果警报难以解释,后果仍属于临床医生。如果设备在不同患者身上的表现不同——漏掉一些,过度标记其他——临床医生也会继承这一点。

围绕AI的炒作进一步使问题复杂化。在过去几年中,基于AI的监听工具迅速蔓延到医疗保健领域,这些工具记录医生-患者互动并生成临床记录以记录就诊。许多机构购买它们,希望它们能为临床医生节省时间。许多提供者欣赏在与患者交谈时不必做笔记,但新兴证据表明效率提升可能很有限。研究报告的时间节省范围从微不足道到每天最多22分钟。"每个人都冲进来声称这些东西是神奇的;它们将为我们节省数小时。这些节省并未实现,"斯坦福大学医学教授、斯坦福医疗保健首席数据科学家尼加姆·沙阿(Nigam Shah)说。"每天节省六分钟的投资回报率是多少?"

类似的经历使一些精英机构警惕仅依赖外部公司提供算法工具。几年前,斯坦福医疗保健、纽约市的西奈山医疗系统(Mount Sinai Health System)和其他机构将AI开发引入内部,以便他们能够开发自己的工具、测试供应商的工具、调整它们并向临床医生辩护。"这是将医疗保健AI战略性地重新定义为机构能力,而不是我们购买的商品技术,"沙阿说。在西奈山,这一转变意味着更少关注算法本身,而更多关注采用和信任——努力与医疗保健工作者建立信任并将新工具融入工作流程。

AI工具还需要说明为什么它们推荐某些事情并识别触发警报的具体信号,而不仅仅是呈现一个分数。约翰斯·霍普金斯大学计算机科学副教授、该校机器学习与医疗保健实验室主任苏奇·萨里亚(Suchi Saria)表示,医院需要注意人机交互。她认为,AI模型应该更像训练有素的团队成员发挥作用。"如果这个新团队成员是破坏性的,它就不会起作用。人们不会使用它,"萨里亚说。"如果这个新成员无法理解,人们就不会使用它。"

然而,许多机构在考虑或构建将用于患者护理的新AI工具时,并不咨询或与护士和其他一线员工共同创建。"这种情况经常发生,"斯坦福的沙阿说。他回忆起初次组建数据科学团队时配备了医生而非护士,直到该机构的首席护理官提出反对。他现在认为护士的视角是不可或缺的。"先问护士,再问医生,如果医生和护士意见不一致,相信护士,因为他们知道真正发生了什么,"他说。

为了让更多员工参与开发AI工具的过程,一些机构除了自上而下的方法外还实施了自下而上的方法。"许多最好的想法来自最接近工作的人,所以我们创建了一个流程,公司中的任何人都可以提交想法,"前床边护士、现任西奈山首席数字转型官罗比·弗里曼(Robbie Freeman)说。一位伤口护理护士提出了一个绝妙的主意,即构建一个AI工具来预测哪些患者可能发展出褥疮。弗里曼说,该计划采用率很高,部分原因是该护士热情地培训她的同事。

弗里曼说,目标不是取代临床判断,而是构建临床医生会使用的工具——能够解释自己的工具。在护士想要的版本中,警报是邀请更仔细观察,而不是不值得信任的数字管理者。

去年,西奈山心脏导管实验室迎来了下一个前沿——一个名为Sofiya的新智能体AI系统。在支架植入手术前,Sofiya现在会给患者打电话,而不是护士打电话提供说明和回答问题。该AI代理设计有"轻声细语、令人平静"的声音,并在真人大小的宣传剪影中被描绘成穿手术服的女性模型,据导管实验室主任安纳波尔纳·基尼(Annapoorna Kini)称,Sofiya在五个月内为西奈山节省了200多个护理小时。但一些护士并不支持Sofiya。去年11月,在纽约市议会会议上,已在西奈山工作37年的护士德纳什·福布斯(Denash Forbes)作证称,Sofiya的工作仍需护士检查以确保准确性。

即使是弗里曼也承认,在这种智能体AI提供集成和无缝体验之前还有很长的路要走。或者它可能会加入失败的AI试点行列。当行业追求自主代理的效率时,我们需要一个算法测试基础设施。目前,患者的安全仍锚定在AI无法复制的非常事物上:人类临床医生的直觉。就像亚当·哈特拒绝数字判决以保护患者肺部的情况一样,AI时代的护士的最终价值可能不是他们遵循提示的能力,而是他们愿意覆盖它的意愿。

【全文结束】