英国医生借助AI聊天机器人进行诊断和记录,但患者隐私是否面临风险?
UK doctors turn to AI chatbots for diagnoses and documentation, but are they putting patient privacy at risk?
尽管存在隐私担忧和错误风险,但一项新的调查显示,许多英国医生正在采用AI聊天机器人来简化他们的工作,并协助完成诸如记录和诊断等临床任务。
一项发表在《BMJ健康与护理信息学》杂志上的最新研究,衡量了英国全科医生对生成式人工智能(AI)的使用情况。
自2022年底ChatGPT推出以来,由大型语言模型(LLM)驱动的聊天机器人的兴趣大幅增加,人们越来越关注其临床潜力。这些新一代聊天机器人在大量数据上进行训练,以生成响应并像自动完成设备一样工作。
记录协助是最常见的用途,29%使用AI的全科医生利用这些工具在预约后生成患者记录,简化了行政工作。
此外,与互联网搜索引擎不同,这些聊天机器人可以快速总结和生成文本,记住之前的提示,并模仿对话互动。初步证据突出了这些工具在帮助编写富有同理心的记录、比口述或打字更详细的记录以及帮助鉴别诊断方面的能力。
然而,这些工具存在局限性;它们可能提供错误信息,其输出也有可能加剧或延续医疗保健中的性别、残疾和种族不平等。此外,患者隐私也令人担忧,因为尚不清楚生成式AI公司如何使用收集的数据。然而,关于临床医生的经验和实践的数据有限;很少有研究调查医生在临床实践中对这些工具的采用和看法。
研究和发现
在本研究中,研究人员测量了英国全科医生对AI聊天机器人的使用情况。对在临床医生营销服务中注册的全科医生进行了调查。该调查经过了预测试,并与六位全科医生进行了试点。本研究作为一项综合调查启动,具有预定的样本量。抽样按区域位置分层。参与者被要求回答所有封闭式项目。
该调查收集了人口统计信息,结果显示45%的受访者是全科医生合伙人/负责人,34%是带薪全科医生,18%是临时全科医生。
参与者数据完全匿名并以数字形式存储。完成调查后提供购物券。该调查于2024年2月2日至22日进行。本研究报告了对调查项目Q1的回应,该项目询问参与者是否在临床实践的任何方面使用过Bing AI、ChatGPT、谷歌的Bard或其他生成式AI工具。
缺乏监管指导:研究强调,尽管AI工具的使用不断增加,但对于如何将这些技术安全地整合到医疗保健中,仍然缺乏明确的政策或指导方针。
总体而言,1006名参与者完成了调查;53%为男性,54%年龄在46岁及以上。大多数受访者是全科医生合伙人或带薪全科医生。总体而言,205名受访者报告在临床实践中使用了生成式AI。2024年2月8日,在收集到200份回复后,鉴于AI用户的高比例,添加了一个后续问题;它要求那些肯定回答的人具体说明他们使用AI工具的用途。
约29%的人报告在预约后使用AI工具进行记录,28%的人使用AI来建议鉴别诊断。此外,20%的人使用AI工具获取患者的时间线或从以前的记录中进行总结,25%的人使用它们来探索治疗方案。约8%的人使用AI写信。
结论
总体而言,在接受调查的医生中,五分之一报告在英国的临床实践中使用AI聊天机器人来协助任务。ChatGPT是使用最多的。此外,超过四分之一的生成式AI用户报告在预约后使用它们来协助鉴别诊断或记录。这些发现表明,全科医生可能从这些工具中受益,特别是在支持临床推理和行政任务方面。
然而,这些工具存在局限性,因为它们可能产生错误和偏差。此外,它们可能会损害患者隐私,因为不清楚生成式AI公司如何使用收集的信息。医学界还需要解决监管的不确定性,并制定明确的工作政策,以确保在医疗环境中安全采用这些工具。总之,尽管缺乏关于生成式AI工具的指导和不明确的工作政策,英国的全科医生报告使用它们来协助工作。
参考文献:
Blease CR, Locher C, Gaab J, Hägglund M, Mandl KD. Generative artificial intelligence in primary care: an online survey of UK general practitioners. BMJ Health & Care Informatics, 2024, DOI: 10.1136/bmjhci-2024-101102, https://informatics.bmj.com/content/31/1/e101102
声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。
本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。