一项在英国范围内进行的在线抽样调查结果显示,五分之一的家庭医生(全科医生或 GPs)似乎已将人工智能(AI)融入其临床实践,然而在使用这些工具方面,却缺乏任何正式的指导或明确的工作政策。该调查结果发表在开放获取期刊《BMJ 健康与护理信息学》上。
研究人员总结称,医生和医学实习生需要充分了解人工智能的利弊,特别是由于其固有的不准确(“幻觉”)风险、算法偏差以及可能损害患者隐私等问题。
自 2022 年底 ChatGPT 推出以来,人们对大型语言模型驱动的聊天机器人的兴趣飙升,对这些工具在临床潜力的关注也日益增加。
为了评估目前英国聊天机器人在临床实践的任何方面的使用情况,研究人员于 2024 年 2 月向随机抽取的注册在医生营销服务 Doctors.net.uk 的全科医生样本分发了一份在线调查。该调查预先确定的样本量为 1000 个。
医生们被问及他们在临床实践的任何方面是否曾使用过以下任何一种:ChatGPT、Bing AI、谷歌的 Bard 或“其他”。随后,他们被问到使用这些工具的用途。
约 1006 名全科医生完成了调查:超过一半的回复来自男性(531 人;53%),类似比例的受访者(544 人;54%)年龄在 46 岁或以上。
五分之一(205 人;20%)的受访者报告在其临床实践中使用生成式人工智能工具。其中,超过四分之一(29%;47 人)报告称在患者就诊后使用这些工具生成文档,类似比例(28%;45 人)表示用于提出鉴别诊断。四分之一(25%;40 人)称使用这些工具来建议治疗方案。
研究人员承认,调查的受访者可能无法代表所有英国的全科医生,而且那些回复的人可能对人工智能特别感兴趣——无论是好是坏——这可能在调查结果中引入了一定程度的偏差。
他们补充说,还需要进一步的研究来了解医生如何使用生成式人工智能,以及如何最好地将这些工具安全可靠地应用于临床实践。
“这些发现表明,全科医生可能从这些工具中获得价值,特别是在行政任务和支持临床推理方面。
“然而,我们警告说,这些工具存在局限性,因为它们可能嵌入细微的错误和偏差,”他们说。
他们还指出:“(这些工具)也可能会损害和破坏患者隐私,因为不清楚生成式人工智能背后的互联网公司如何使用他们收集的信息。
“虽然这些聊天机器人越来越成为监管努力的目标,但目前尚不清楚立法将如何在临床实践中与这些工具实际交叉。”
他们总结道:“医学界需要找到方法,既要教育医生和实习生这些工具在总结信息方面的潜在好处,也要让他们了解在幻觉(对不存在的模式或对象的感知)、算法偏差和可能损害患者隐私方面的风险。”


