人工智能继续重塑医疗保健,但一项新的研究突显了将人工智能工具整合到医疗实践中的挑战。由OpenAI开发的AI聊天机器人ChatGPT-4在一项诊断准确性研究中超过了医生,引发了关于医生如何有效利用此类技术的问题。
这项发表在《JAMA Network Open》上的研究测试了50名医生在六个具有挑战性的医疗案例中的表现。使用ChatGPT辅助的医生平均得分为76%,仅略高于未使用辅助的医生的74%。然而,ChatGPT单独诊断这些病症的准确率达到了惊人的90%。
“我感到震惊,”Beth Israel Deaconess医疗中心的内科专家亚当·罗德曼博士(Dr. Adam Rodman)告诉《纽约时报》,他是该研究的合著者。
研究方法
研究人员使用了未发表的真实病例史,以防止参与者或AI模型提前了解情况。病例包括复杂的医疗状况,如胆固醇栓塞,这是一种在诊断过程中经常被忽视的罕见疾病。
医生由独立的医学专家评分,评估他们提供潜在诊断、排除替代诊断和建议下一步诊断步骤的能力。尽管有ChatGPT的支持,许多医生仍难以匹配AI的表现。
研究揭示了两个关键问题:
- 医生坚持初始诊断:当ChatGPT的建议与他们的诊断相矛盾时,医生常常忽略这些建议。
- AI工具的利用不足:很少有医生充分利用ChatGPT的全部功能,例如分析整个病历以进行全面的诊断方法。
“医生像使用搜索引擎一样对待聊天机器人,只问它狭窄的问题,而不是输入完整的病历,”斯坦福大学的医生兼计算机科学家乔纳森·H·陈博士(Dr. Jonathan H. Chen)告诉《纽约时报》。
医疗保健中的人工智能前景与挑战
像ChatGPT这样的AI工具在诊断环境中显示出巨大的潜力,其语言模型能够对复杂病例进行细致的分析。与早期的计算机辅助诊断尝试不同,现代AI工具不试图模仿人类的推理,而是通过处理和预测语言模式来发挥优势。
“聊天界面是游戏规则的改变者,”陈博士说。“以前,计算机无法像现在这样理解语言。”
然而,专家警告称,将AI整合到医疗工作流程中不会一蹴而就。常见的挑战包括:
- 缺乏AI培训:许多医生需要更好的教育,以有效使用AI工具。
- 抵触变化:医生可能不信任AI,尤其是在AI挑战他们的诊断时。
- 伦理和法律问题:当AI工具影响患者护理决策时,责任归属问题仍然存在。
AI可以作为“医生扩展器”,提供第二意见并提高诊断准确性,但这只有在医生愿意接受的情况下才能实现。
医生为何忽视ChatGPT的见解
通过对研究中的聊天记录进行分析,研究人员发现许多医生忽略了ChatGPT的建议。这种抵触部分源于对自己专业知识的过度自信,部分源于对AI诊断能力的不熟悉。
“人们通常在认为自己正确时会过于自信,”鹿特丹伊拉斯谟医学中心的临床推理专家劳拉·兹万(Laura Zwaan)在接受《纽约时报》采访时说。
此外,一些医生使用ChatGPT的方式效率低下,未能充分利用其处理完整病历的能力。
“只有少数参与者意识到他们可以将整个病历复制粘贴到ChatGPT中以获得全面的答案,”陈博士说。
人工智能在医疗保健领域的未来
研究结果突显了AI开发者和医疗专业人员之间合作的必要性,以建立信任和可用性。AI在医学中的作用可能不仅限于诊断,还包括个性化治疗计划和患者管理。
“AI是一个非凡的工具,”罗德曼博士说。“但在如何有效地将其整合到医疗实践中,还有很多工作要做。”
(全文结束)


