研究揭示:ChatGPT在诊断准确性上超越医生ChatGPT outperformed doctors in diagnostic accuracy, study reveals

环球医讯 / AI与医疗健康来源:www.livenowfox.com美国 - 英语2024-11-22 00:00:00 - 阅读时长4分钟 - 1675字
一项新研究显示,ChatGPT在诊断准确性上超过了医生,但医生们对AI建议的信任度较低
ChatGPT诊断准确性医生人工智能监管医疗保健医生助手AI培训伦理法律问题第二意见
研究揭示:ChatGPT在诊断准确性上超越医生

加利福尼亚州加强对人工智能的监管

州长加文·纽森签署了多项关于人工智能的法案,其中包括由加州参议员乔什·贝克尔提出的一项透明度法案。贝克尔参议员加入LiveNOW的奥斯汀·韦斯特法尔,详细解读了他的新法案。

要点

  • ChatGPT在诊断测试中表现出色:AI的准确率达到90%,而医生在有聊天机器人辅助的情况下平均得分为76%。
  • 医生难以信任AI建议:许多医生忽略了ChatGPT提供的更好诊断或未充分利用其功能。
  • AI被视为潜在的“医生助手”:专家表示,像ChatGPT这样的工具可以在医疗实践中提供有价值的第二意见。

洛杉矶

人工智能继续重塑医疗保健行业,但一项新的研究突显了将AI工具整合到医疗实践中的挑战。由OpenAI开发的AI聊天机器人ChatGPT-4在一项诊断准确性研究中表现优于医生,引发了关于医生如何有效利用此类技术的问题。

这项发表在《JAMA Network Open》上的研究测试了50名医生对六个具有挑战性的医疗案例的处理能力。使用ChatGPT辅助的医生平均得分76%,仅略高于未使用该工具的医生的74%。然而,ChatGPT单独诊断这些疾病的准确率达到了惊人的90%。

“我感到非常震惊,”贝斯以色列女执事医疗中心的内科专家亚当·罗德曼博士在接受《纽约时报》采访时说。

研究方法

研究人员使用了未公开的真实病例历史,以防止参与者或AI模型提前了解情况。病例包括复杂的医疗状况,如胆固醇栓塞,这是一种常被忽视的罕见疾病。

医生们由独立的医学专家根据他们提供可能诊断、排除替代方案和建议下一步诊断步骤的能力进行评分。尽管有ChatGPT的支持,许多医生仍难以达到AI的表现。

研究揭示了两个关键问题:

  1. 医生坚持初始诊断:当ChatGPT的建议与其自身诊断相矛盾时,医生往往会忽略AI的建议。
  2. AI工具利用率低:很少有医生充分利用ChatGPT的全部功能,例如分析整个病例历史以进行全面诊断。

“医生们像使用搜索引擎一样对待聊天机器人,只问它狭窄的问题,而不是输入完整的病例,”斯坦福大学的医师兼计算机科学家乔纳森·H·陈博士在接受《纽约时报》采访时说。

医疗保健中AI的前景与挑战

像ChatGPT这样的人工智能工具在诊断环境中显示出巨大的潜力,其语言模型能够对复杂病例进行细致分析。与早期尝试的计算机辅助诊断不同,现代AI工具不试图模仿人类的推理,而是通过处理和预测语言模式来实现卓越表现。

“聊天界面是游戏规则的改变者,”陈博士说,“以前,计算机无法像现在这样理解语言。”

然而,专家警告称,将AI整合到医疗工作流程中不会一蹴而就。常见的挑战包括:

  • 缺乏AI培训:许多医生需要更好的教育来有效使用AI工具。
  • 抵触变革:医生可能不信任AI,尤其是当AI挑战他们的诊断时。
  • 伦理和法律问题:关于AI工具影响患者护理决策时的责任归属问题仍然存在。

AI可以作为“医生助手”,提供第二意见并提高诊断准确性,但这需要医生愿意接受这一技术。

医生为何忽视ChatGPT的见解

通过分析研究中的聊天记录,研究人员发现许多医生忽略了ChatGPT的建议。这种抵制部分源于对自己专业知识的过度自信,部分源于对AI诊断能力的不熟悉。

“当人们认为自己是对的时候,通常会过于自信,”鹿特丹伊拉斯谟医学中心的临床推理专家劳拉·茨万在接受《纽约时报》采访时说。

此外,一些医生使用ChatGPT的方式效率低下,未能充分利用其处理完整病例历史的能力。

“只有少数参与者意识到他们可以将整个病例复制粘贴到ChatGPT中以获得全面答案,”陈博士说。

医疗保健中AI的未来

研究结果突显了AI开发者与医疗保健专业人士之间合作的必要性,以建立信任和可用性。AI在医学中的作用可能不仅限于诊断,还可能扩展到个性化治疗计划和患者管理。

“AI是一个非凡的工具,”罗德曼博士说,“但在如何有效地将其整合到医疗实践中,我们还有大量的工作要做。”

来源

本文引用了《纽约时报》的报道和发表在《JAMA Network Open》上的研究。


(全文结束)

大健康
大健康