医生越来越多地转向人工智能聊天机器人来帮助他们生成医疗文件、提交保险请求,甚至协助诊断。例如,在最近对英国全科医生的一项调查中,20%的医生报告在临床实践中使用了生成式人工智能。然而,其对患者的影响仍不确定,每五位医生中就有一位使用聊天机器人。
在对 1006 名医生的调查中,有 205 名报告在工作中使用了人工智能工具。在表示使用聊天机器人的全科医生中,29%的人报告在患者预约后使用它们来生成文件,28%的人表示用它们来提出鉴别诊断。虽然许多领域的专业人士能够理解医生使用人工智能来加快预约后的日常文书工作,但使用聊天机器人来协助诊断引发了伦理问题。
尽管 ChatGPT 的推理能力日益复杂,但依靠人工智能根据患者症状正确诊断患者存在误诊的风险。在今年早些时候发表在《美国医学会儿科学杂志》上的一项研究中,研究人员调查了 ChatGPT 的诊断准确性。他们发现,当面对真实的医疗病例时,聊天机器人 61%的时间给出了错误的诊断。在某些情况下,人工智能的诊断偏差很大。例如,它认为一名患者的皮疹症状是“免疫性血小板减少性紫癜”,而实际上患者被诊断为坏血病。然而,在其他情况下,人工智能接近正确诊断,但不够详细。证据表明,聊天机器人无法做出关键的医疗决策,但研究人员承认它们在诊断过程中可以是重要的“补充工具”。
尽管英国的调查表明医生正在使用人工智能来帮助诊断,但这似乎是该技术“补充”用途的一个例子。引用的使用案例包括使用人工智能生成鉴别诊断,即在做出最终诊断之前创建可能病情的初步列表。但医生使用该技术还有很多其他方式。随着更多的医生接受人工智能,医疗技术初创公司已经开发了专门解决该领域独特的隐私和安全要求的新解决方案。被称为智能助手,这些可以简化图表绘制和写信,从而与患者进行更有效的沟通。在一个案例中,一位使用这些智能助手之一的医生声称他为保险公司撰写预授权请求的时间减少了一半。他不仅写信更快,而且使用人工智能时观察到了更高的成功率,他可以提示根据每个患者的保险政策定制请求。


