据发表在《JAMA Network Open》上的研究显示,AI生成的患者门户消息回复可能对护士的工作流程有所改善,但对医疗助理、医生或高级执业临床医生(APC)则不然。调查中,大多数护士表示,AI聊天机器人减少了他们将消息转发给临床医生的需求,并使他们能够更快地回答问题。此外,护士比医疗助理、医生或高级执业临床医生更愿意向他人推荐该聊天机器人。
研究人员在2023年9月至2024年3月期间,在科罗拉多大学健康中心的9个诊所(6个初级保健诊所和3个专科诊所)测试了大型语言模型(LLM)聊天机器人GPT-4。该LLM起草了21,323条患者门户消息的回复,其中12%(2596条)被采用。在LLM使用两周后,共收集了69份来自12名护士、14名医疗助理和43名临床医生(包括医生和高级执业临床医生)的调查反馈。
与医疗助理和临床医生相比,护士更有可能推荐LLM给他人(净推荐得分分别为58、-29和-43,P=0.004)。护士还报告说,LLM使他们能够更快地回复消息(92%、50%和46%,P=0.03)、更容易表达书面同理心(92%、43%和42%,P=0.01),并且提供错误信息的风险较低(67%、14%和28%,P=0.04)。
此外,与医疗助理相比,护士更有可能报告LLM帮助他们保持在职责范围内(50% vs 29%,P=0.01),并减少了他们将消息转发给临床医生的需求(75% vs 21%,P=0.002)。总体而言,大多数受访者同意LLM生成的消息语气适当(92%的护士、79%的医疗助理和65%的临床医生,P=0.21),并且使用起来有趣(92%、57%和51%,P=0.08)。
“我们的结果与其他描述初级护理护士对LLM持负面看法的报告不同,”研究人员写道,“这一发现可能是由于每个群体看到的具体消息不同。医生和APC可能更多地收到复杂消息,这些消息对LLM来说更难处理;而医疗助理可能认为包含临床信息的消息超出了他们的职责范围。这种基于角色的差异和我们12%的整体使用率表明,未来LLM可能需要调整以识别谁将接收消息(医疗助理、护士或医生/APC),并相应地创建回复。”
(全文结束)


