据发表在《JAMA Network Open》上的一项研究,AI生成的患者门户消息回复可能有助于提高护士的工作效率,但对医疗助理、医生或高级执业临床医生来说效果不明显。在调查中,大多数护士表示,AI聊天机器人减少了他们将消息转发给临床医生的需求,并使他们能够更快地回答问题。护士也比医疗助理、医生或高级执业临床医生更愿意向他人推荐该聊天机器人。
研究人员在2023年9月至2024年3月期间,在科罗拉多大学健康中心的9个诊所(6个初级保健诊所和3个专科诊所)测试了大型语言模型(LLM)聊天机器人GPT-4。该LLM为患者门户消息草拟了21,323条回复,其中12%(n=2596)被采用。在LLM使用两周后,从12名护士、14名医疗助理和43名临床医生(包括医生和高级执业临床医生)那里收集了69份调查问卷。
护士比医疗助理和临床医生更有可能推荐LLM给他人(净推荐值分别为58、-29和-43;P=0.004)。护士也比医疗助理和临床医生更有可能报告称,LLM:* 使他们能够更快地回复消息(92%、50%和46%;P=0.03)。* 使书面表达同情更容易(92%、43%和42%;P=0.01)。* 错误信息的风险较小(67%、14%和28%;P=0.04)。
此外,护士比医疗助理更有可能报告称,LLM帮助他们保持在自己的职责范围内(50% vs 29%;P=0.01),并减少了将消息转发给临床医生的需求(75% vs 21%;P=0.002)。总体而言,大多数受访者同意LLM生成的消息具有适当的语气(92%的护士、79%的医疗助理和65%的临床医生;P=0.21),并且认为使用起来很有趣(92%、57%和51%;P=0.08)。
“我们的结果与其他描述初级护理护士对LLM持负面看法的报告有所不同,”研究人员写道。“这一发现可能是由于每个群体看到的具体消息不同。医生和高级执业临床医生可能更倾向于接收复杂的消息,这些消息对LLM来说更难处理;而医疗助理可能认为包含临床信息的消息超出了他们的职责范围。这种基于角色的差异和我们12%的整体使用率表明,未来LLM可能需要调整以识别谁将接收消息(医疗助理、护士或医生/高级执业临床医生)并据此创建回复。”
(全文结束)


