大型语言模型(LLM)如AI聊天机器人ChatGPT在医疗保健领域的应用日益广泛,海湾国家也在这方面进行了大量投资,但这些模型在临床实践中的整合仍面临挑战。由Ethan Goh博士领导的一项研究最近发表在《美国医学会开放网络杂志》上,测试了ChatGPT是否可以提高医生的诊断推理能力。虽然LLM独立表现良好,但在医生使用时并未改善诊断推理,研究发现。该研究包括了50名来自家庭医学、内科和急诊医学的从业者,并于2023年底进行。参与者审查了六个临床案例,使用传统诊断工具或结合ChatGPT进行诊断。使用ChatGPT的医生得分中位数为76%,而仅依赖传统方法的医生得分为74%。然而,当ChatGPT独立操作时,得分为92%。
“这些工具在医疗保健中非常强大,但真正的收获是我们需要弄清楚医生、患者和医疗系统如何充分利用它们,”Goh说。他强调,该研究的开放式方法更好地反映了现实世界的复杂性:“这关乎医生如何评估复杂的病例。”
沙特阿拉伯和阿联酋正在医疗保健领域大力投资人工智能。阿联酋医疗公司M42领导了诸如“阿联酋基因组计划”等项目,利用AI基于世界上最大的DNA数据库之一开发个性化治疗方案。在沙特阿拉伯,价值1000亿美元的“超越项目”旨在将AI嵌入各个领域,包括医疗保健,作为“2030愿景”的一部分。
尽管这些投资意义重大,但Goh的研究突显了一个关键挑战:技术本身并不足够。如果医生没有接受有效使用AI工具的培训,这些系统可能无法发挥其潜力。“医生通常在使用像LLM或电子病历这样的工具时没有得到太多引导。如果没有适当的指导,这些工具可能会增加他们的工作负担而不是减轻它,”Goh说。
M42的产品管理副总裁Maaz Shaikh表示,医疗保健领域存在AI人才缺口,主要体现在两个方面:AI专家缺乏医学专业知识,以及临床医生对如何使用AI工具知之甚少。“这种不匹配导致系统集成不良,扰乱工作流程,无法充分发挥潜力,”Shaikh说。他强调需要培训计划、变革管理和保障措施,以确保顺利采用。“策略必须关注人员、流程和技术。跨学科的AI专家和医疗保健专家团队对于发展至关重要,”他说。
Goh的研究还强调了过度依赖AI而不了解其局限性的危险。Goh和Shaikh都认为,像ChatGPT这样的工具在协助临床医生解读数据和决策方面很有价值,但不应取代专业知识。“AI应用于促进快速访问数据和证据,而不是为临床医生做决策,”Shaikh说。
尽管生成式AI在自动化文档和提高效率方面显示出潜力,但只有当临床医生能够将其整合到工作流程中时,才能实现其好处。Shaikh指出,M42早期的成功例子,如用于结直肠癌筛查和个性化医疗的AI系统,展示了当有效使用时,AI如何提高护理质量和患者结果。“这些工具具有巨大潜力,但只有通过有意识的努力将技术与临床实践相结合,才能实现其好处,”Goh说。
(全文结束)


