人工智能正进入医疗保健领域 护士被要求信任它AI Is entering health care, and nurses are being asked to trust it | Scientific American

环球医讯 / AI与医疗健康来源:www.scientificamerican.com美国 - 英语2026-03-05 21:29:06 - 阅读时长11分钟 - 5079字
本文通过亚当·哈特拒绝脓毒症AI警报等真实案例,深入剖析了人工智能在医疗系统中的快速部署现状,揭示了Sepsis预测算法误报率高、BioButton监测设备数据模糊等技术缺陷,指出AI工具因缺乏解释性与临床情境适配性导致护士需承担决策风险;专家强调算法无法替代人类临床直觉,呼吁加强监管框架、推动人机协作优化,并警示医院在追求自动化效率时若忽视一线医护人员反馈,将加剧护理信任危机与患者安全隐患,最终威胁医疗质量核心。
人工智能医疗保健护士临床判断脓毒症警报算法模型电子病历健康监测代理式AI患者安全人机交互假阳性警报
人工智能正进入医疗保健领域 护士被要求信任它

Tavis Coburn

亚当·哈特在内华达州亨德森市的圣罗丝多米尼加医院担任护士已有14年。几年前,他在急诊科支援时,正听取救护车对一名刚入院患者的汇报——这位老年女性血压严重偏低——此时医院电子系统突然弹出脓毒症警示旗。

脓毒症是对感染的危及生命的反应,是美国医院的主要死因之一,早期治疗至关重要。该警示促使主管护士指令哈特立即为患者安排诊室、测量生命体征并开始静脉输液。这是标准流程;在急诊室,这通常意味着争分夺秒。

但当哈特检查患者时,发现她锁骨下方有透析导管。她的肾脏功能已严重衰退。他警告称,常规静脉输液可能使系统超负荷,液体最终会积聚在肺部。主管护士却因医院人工智能系统生成的脓毒症警报,坚持要求他执行操作。哈特拒绝了。

一名医生听到争论升级后介入处理。医生未使用输液,而是开具多巴胺以提升患者血压而不增加血容量——避免了哈特认为可能导致危及生命并发症的情况。

令哈特印象深刻的是AI警示触发的连锁反应:屏幕提示紧急状态,流程将其转化为指令;而基于临床推理的床边异议,至少在当时却被视为违抗。无人出于恶意行事,但当眼前证据——患者及其受损肾脏——明确要求采取相反措施时,该工具仍迫使他们服从。(医院发言人表示无法评论具体案例,但强调医院视AI为"支持而非取代医护团队专业判断的工具之一"。)

这种动态正成为美国医疗保健系统的常态。过去数年,医院已将算法模型融入日常实践。临床护理常依赖将患者症状与僵化流程匹配——这恰是自动化的理想环境。对于疲惫的医疗团队,将文书等常规任务移交AI的吸引力毋庸置疑。

已实施的技术涵盖从计算简单风险评分的预测模型,到承诺自主决策的代理式AI——后者能以极低人工干预调节患者氧流量或重新排序急诊分诊队列。数月前在犹他州启动的试点项目,使用具备代理能力的聊天机器人技术续开处方,支持者称此举为医护人员节省时间,但医师协会反对移除人工监督。全美医疗系统正利用类似工具标记风险、环境监听患者问诊、生成临床记录、通过可穿戴设备监测患者、匹配临床试验参与者,甚至管理手术室与重症监护室转运的物流。

护士目睹了不完善产品如何演变为政策——继而成为她们的问题。

行业正追逐真正持续护理的愿景:一种决策基础设施,通过整合电子病历数据(实验室结果、影像、医嘱、用药记录)、人群数据及患者自生成数据(如可穿戴设备和饮食日志),在预约间隙持续追踪患者。它监测显著变化、发送指导提示,并标记需人工介入的案例。支持者认为,这种数据密集型的全天候监控远超任何人类医生的认知能力。

另一些人则主张临床医生必须参与其中,将AI用作辅助工具而非自动驾驶系统,帮助解析海量数据。去年斯坦福医学院推出ChatEHR工具,允许医生"对话"患者电子病历。一位医师分享,该工具从癌症患者记录中挖掘出关键信息,助力六名病理学家团队做出明确诊断。"若这还不能证明电子病历的价值,我就不知道什么能了。"

然而据纽约纪念斯隆-凯特琳癌症中心首席战略官阿内泽·奥福迪尔观察,这些数字承诺在许多医院病房中常遭破碎。他指出,缺陷算法、实施不善及投资回报率低已导致部分项目停滞。一线护士作为患者照护者,对未经验证工具日益警惕。这种摩擦已从病房蔓延至街头:过去两年,加州和纽约市护士举行示威,抗议未经监管的算法工具进入医疗系统,指出医院在AI投资时床边护理仍严重人手不足。

脓毒症预测已成为警示案例。全美医院广泛采用健康信息技术公司Epic的脓毒症预测算法,后续评估发现其准确性远低于宣传。Epic称临床研究证明其模型改善了治疗效果,并已发布性能更优的第二版。但护士们目睹了不完善产品如何演变为政策——继而成为她们的问题。

2024年护理调查显示,职业倦怠、人力短缺及 workplace violence 上升正削弱护理队伍。去年11月,纽约州护士协会成员在纽约市政厅台阶集会,并向市议会医院委员会作证。他们指出,该市最大私立医疗系统将资金投入高管薪酬和AI项目,而病房仍人手不足,护士面临日益升级的安全风险。本文付印的1月中旬,纽约市医疗系统的1.5万名护士正罢工,要求更安全的 staffing levels 和 workplace protections。

新型AI监测模型常带着与其他行业相同的炒作进入医院。2023年,加州大学戴维斯医疗中心在肿瘤骨髓移植科推出BioButton,称其"具有变革性"。这款佩戴于患者胸前的六边形硅胶传感器,持续追踪心率、体温和呼吸模式等生命体征。

但在病房中,它频繁生成护士难以解读的警报。拥有17年加州大学戴维斯医疗中心工作经验的注册护士梅丽莎·比比表示,这些提示几乎不提供可操作数据。"问题在此真正凸显,"她说,"提示过于模糊。"通知仅标记生命体征变化而无具体说明。

比比称她常跟随无果的警报行动。"我有自己的内部预警——'这位患者有问题,我需密切观察'——而BioButton却有独立运行机制。它过度反应却未提供优质信息。"

作为加州护士协会在加州大学戴维斯医疗中心的工会代表,比比依据合同要求设备 rollout 前与院方领导层正式讨论。"宣传极其夸张:'天啊,这将彻底变革,你们多幸运能使用它',"她说。当她与同事提出质疑时,却被视为抗拒技术。"我是'为什么型'护士。要理解事物,我必须知道原因——为何要这么做?"

护士们的担忧包括设备在不同体型患者身上的适用性及警报响应速度要求。比比表示院方领导层鲜有明确解答。相反,护士被告知该设备有助于早期检测出血性中风——这正是她所在病房患者的高风险。"但问题在于,对中风而言心率、体温和呼吸率已是相当晚期的症状,"她说,"此时患者几乎濒临死亡。"出血性中风的早期征兆可能是患者难以唤醒、言语含糊或平衡障碍。"这些均非BioButton的监测参数。"

比比表示,加州大学戴维斯医疗中心在试点约一年后停用BioButton。"他们发现,对真正危重且需此类警报的患者,护士反而能更快识别问题,"她解释道。(加州大学戴维斯医疗中心声明称,试点期间BioButton与现有监测设备并行使用,最终因警报未展现明显优势而未采用。)

比比认为,经年训练与经验塑造的临床判断,结合细微感官线索与设备信号,无法被自动化。"我无法计数多少次产生'对这位患者感觉不对'的直觉——可能仅是皮肤观感或触感。"在加州莫德斯托市凯撒永久医院拥有13年重症护理经验的埃尔文·米切尔附和此观点:"有时仅凭观察就能判断患者状态不佳,这在化验和监测仪上均不显示。我们有五感,而计算机仅接收输入信号。"

临床护理常依赖将患者症状与僵化流程匹配——这恰是自动化的理想环境。

专家表示算法可增强但无法替代临床判断。"模型永远无法获取医生掌握的全部数据,"加州大学伯克利分校公共卫生学院健康政策与管理杰出副教授齐亚德·奥贝梅耶指出。模型主要分析电子病历,但数字文件未涵盖所有内容。"那恰是诸多关键信息:患者如何回答问题?如何行走?医生和护士观察理解患者的所有细微之处。"

米切尔兼任医院快速响应团队成员,他表示同事对警报信任度低。他估计中央监测团队生成的警报约半数为假阳性,但医院政策要求床边人员评估每个警报,将护士从已标记高风险的患者身边调离。(凯撒永久声明其AI监测工具旨在支持临床医生,决策权保留在医护团队,且系统经严格测试与持续监控。)

"或许50年后它会更有效,但目前只是勉强运行的系统,"米切尔说。他希望加强监管,因极端情况下医疗决策关乎生死。

本文采访中,护士一致强调并非反对医院技术。许多人欢迎经严格验证且能切实改善护理的工具。令他们警惕的是过度营销的AI模型在现实环境中表现远逊承诺的快速 rollout。部署未经验证工具可能造成持久后果。"你正在新一代临床医生和提供者中制造不信任,"一位因职业风险要求匿名的专家警告。

担忧不仅限于私营供应商。纽约州护士协会会长、护士南希·哈根斯表示,医院自身有时绕过曾规范新医疗技术引入的安全保障。

风险并非理论层面。伯克利公共卫生学院的奥贝梅耶发现,部分患者护理算法存在种族偏见。"它们每年用于筛查1亿至1.5亿人,影响范围极广,"他说,"这引发疑问:为何没有系统能在部署前捕捉此类问题?"他将医疗AI引入比作药物研发——与药品不同,AI缺乏单一把关者,医院常需自行验证工具。

床边操作中,不透明性带来后果:若警报难以解释,善后责任仍属临床医生。若设备对不同患者表现不一——漏诊某些、过度标记其他——临床医生同样需承担后果。

AI炒作进一步加剧复杂性。过去两年,记录医患互动并生成临床记录的AI监听工具迅速普及。许多机构购入以期节省医生时间。尽管提供者欣赏免于记录的自由,但新兴证据表明效率提升有限。研究显示日均时间节省从微乎其微到22分钟不等。"所有人一拥而上宣称这些工具神奇,能节省数小时。但实际节省未兑现,"斯坦福大学医学院教授、斯坦福医疗保健首席数据科学家尼加姆·沙阿说,"日均节省6分钟的投资回报率是什么?"

类似经历使部分顶尖机构警惕仅依赖外部公司的算法工具。几年前,斯坦福医疗保健、纽约西奈山医疗系统等将AI开发内化,以便自主开发工具、测试供应商产品、调校参数并向临床医生论证其价值。"这是将医疗AI战略重定义为机构能力,而非采购的商品技术,"沙阿表示。在西奈山,这一转变意味着减少对算法本身的聚焦,更多关注采用率与信任——力求建立医护工作者信任并将新工具融入工作流。

AI工具还需阐明建议原因并识别触发警报的具体信号,而非仅呈现评分。约翰斯·霍普金斯大学计算机科学副教授苏奇·萨里亚指出,医院需重视人机交互。她认为AI模型应如训练有素的团队成员般运作。"若新成员造成干扰,人们不会使用它,"萨里亚说,"若新成员无法理解,人们同样不会使用它。"

然而许多机构在考虑或构建用于患者护理的新AI工具时,未咨询或与护士等一线员工共同设计。"屡见不鲜,"沙阿表示。他回忆最初数据科学团队仅配置医生而非护士,直至机构护理总监提出异议。他现认为护士视角不可或缺。"先问护士,再问医生;若医生与护士意见相左,相信护士,因她们知晓真实状况。"

为让更多员工参与AI工具开发,部分机构实施自下而上与自上而下并行的策略。"最佳创意常来自最贴近工作的人,因此我们创建了公司内任何人均可提交创意的流程,"西奈山首席数字转型官、前床边护士罗比·弗里曼说。一名伤口护理护士提出构建AI工具预测压疮高风险患者的创意。弗里曼表示该项目 adoption rate 高,部分因该护士正热情培训同事。

弗里曼称目标非取代临床判断,而是构建医生愿使用的工具——能自我解释的工具。在护士期待的版本中,警报是邀请深入观察的契机,而非不可靠的数字管理者。

去年,西奈山心脏导管实验室迎来新前沿:名为Sofiya的代理式AI系统。过去由护士在支架手术前致电患者提供指导并答疑,如今Sofiya代为拨号。据导管实验室主任安纳普尔纳·基尼称,这款设计为"轻声细语、令人镇定"声线、宣传立牌以穿手术服女性形象呈现的AI代理,五个月内为西奈山节省200多护理工时。但部分护士对Sofiya持保留态度。去年11月纽约市议会会议上,拥有37年西奈山工作经历的护士德纳什·福布斯作证称,Sofiya的工作仍需护士核查以确保准确性。

弗里曼承认,要实现代理式AI的无缝集成体验"仍有很长的路要走"。或许它终将加入失败AI试点的行列。当行业追逐自主代理的效率时,我们亟需算法测试基础设施。目前患者安全仍系于AI无法复制的核心:人类临床医生的直觉。正如亚当·哈特为保护患者肺部而拒绝数字判决的案例所示,AI时代护士的终极价值或许不在于遵循指令的能力,而在于敢于覆盖指令的意愿。

【全文结束】