洛杉矶——人工智能继续重塑医疗保健行业,但一项新的研究突显了将人工智能工具整合到医疗实践中的挑战。OpenAI开发的AI聊天机器人ChatGPT-4在一项诊断准确性研究中表现优于医生,这引发了关于医生如何有效利用此类技术的问题。
这项发表在《JAMA Network Open》上的研究测试了50名医生在六个具有挑战性的医疗病例中的表现。使用ChatGPT辅助的医生平均得分为76%,仅略高于未使用该工具的医生的74%。然而,ChatGPT单独诊断这些病症的准确率达到了惊人的90%。
“我感到震惊,”贝斯以色列女执事医疗中心的内科专家亚当·罗德曼博士(Dr. Adam Rodman)告诉《纽约时报》,他是该研究的合著者。
研究是如何进行的
研究人员使用了未公开的真实案例史,以防止参与者或AI模型事先了解情况。这些案例包括复杂的医疗状况,如胆固醇栓塞,这是一种在诊断过程中常被忽视的罕见疾病。
医生由独立的医学专家根据他们提供潜在诊断、排除替代诊断和建议下一步诊断步骤的能力进行评分。尽管有ChatGPT的支持,许多医生仍难以匹敌AI的表现。
研究揭示了两个关键问题:
- 医生坚持最初的诊断:当ChatGPT的建议与其自己的诊断相矛盾时,医生往往会忽略ChatGPT的建议。
- 未充分利用AI工具:很少有医生充分利用ChatGPT的全部功能,例如分析整个病例历史以进行全面的诊断方法。
“医生把聊天机器人当作搜索引擎,只问它狭隘的问题,而不是将整个病例输入其中,”斯坦福大学的医师兼计算机科学家乔纳森·H·陈博士(Dr. Jonathan H. Chen)告诉《纽约时报》。
医疗保健中AI的前景与挑战
像ChatGPT这样的AI工具在诊断环境中显示出显著的潜力,其语言模型能够对复杂病例进行细致的分析。与早期尝试模仿人类推理的计算机辅助诊断不同,现代AI工具通过处理和预测语言模式来 excel。
“聊天界面是游戏规则的改变者,”陈博士说。“以前,计算机无法像现在这样理解语言。”
然而,专家警告称,将AI整合到医疗工作流程中不会一蹴而就。常见的挑战包括:
- 缺乏AI培训:许多医生需要更好的教育来有效使用AI工具。
- 对变化的抵制:医生可能不信任AI,尤其是在AI挑战他们的诊断时。
- 伦理和法律问题:当AI工具影响患者护理决策时,责任归属问题仍然存在。
AI可以作为“医生扩展器”,提供第二意见并提高诊断准确性,但这需要医生愿意接受它。
为什么医生忽略了ChatGPT的见解
通过对研究中的聊天记录进行分析,研究人员发现许多医生忽视了ChatGPT的建议。这种抵抗部分源于对自己专业知识的过度自信,部分源于对AI诊断能力的不熟悉。
“人们通常会在认为自己正确时过于自信,”鹿特丹伊拉斯谟医疗中心的临床推理专家劳拉·兹万(Laura Zwaan)在接受《纽约时报》采访时说。
此外,一些医生使用ChatGPT的方式效率低下,未能充分利用其处理完整病例历史的能力。
“只有少数参与者意识到他们可以将整个病例复制粘贴到ChatGPT中以获得全面的答案,”陈博士说。
AI在医疗保健领域的未来
研究结果强调了AI开发者和医疗保健专业人员之间合作的必要性,以建立信任和可用性。AI在医学中的作用可能会从诊断扩展到个性化治疗计划和患者管理。
“AI是一个非凡的工具,”罗德曼博士说。“但在如何有效地将其整合到医疗实践中,我们还有很多工作要做。”
(全文结束)


