一项新研究表明,五分之一的全科医生正在使用生成式人工智能工具来辅助工作,尽管存在相关风险且缺乏培训。
《英国医学杂志》的一项新研究显示,全科医生正在使用像 ChatGPT 这样的商业工具来撰写文件,甚至为患者提出替代诊断。这是同类研究中规模最大的一次,首次展示了人工智能在英国全科诊所的使用程度。
该研究的作者、瑞典乌普萨拉大学副教授夏洛特·布利斯博士称医生使用人工智能的程度“令人惊讶”,因为“医生尚未接受过关于这些工具的正式培训,而且它们在很大程度上仍是监管黑洞”。
像 ChatGPT 这样的工具存在已知问题,可能对患者有害,包括其“幻想”或编造内容的倾向。
布利斯博士说:“也许最大的风险在于患者隐私。我们的医生可能会无意地将患者高度敏感的信息提供给这些科技公司。”
“他们还可能在护理中嵌入偏见,因此某些患者可能面临不公平临床判断的风险。
“我们不知道(人工智能的偏见)是否比普通人类医疗保健中出现的更糟糕,但肯定存在偏见的风险。”
该团队对 1000 多名医生进行了调查,在五分之一表示在工作中使用生成式人工智能的医生中,28%表示他们用其为患者提出不同的诊断。另有 29%表示他们在患者就诊后使用人工智能生成文件。
健康基金会 7 月的一项研究发现,大多数 NHS 工作人员支持使用人工智能来帮助患者护理,81%的人也赞成将其用于行政任务。尽管医疗保健专业人员希望更多地使用人工智能,但 NHS 并未为医生提供太多关于如何使用人工智能的指导。
相反,它要求医生在使用该技术时运用“专业判断”。
同时也是一本关于如何在医疗保健中使用人工智能的书的作者布利斯博士表示,医生们“迫切需要一些关于如何使用该技术的具体建议”。
她说:“确实需要为医生提供有针对性的培训和建议。”


