大脑与字节:研究比较AI和临床医生的诊断Brains vs. bytes: Study compares diagnoses made by AI and clinicians

环球医讯 / AI与医疗健康来源:dailybulldog.com美国 - 英语2025-06-06 18:00:00 - 阅读时长5分钟 - 2214字
缅因大学的一项研究比较了人工智能模型和人类临床医生在处理复杂或敏感医疗案例时的表现,发现AI在某些方面表现出色,但在情感交流和一致性上存在不足。
健康AI医疗临床医生医疗诊断医疗系统患者满意度医疗资源短缺AI伦理医患关系医疗服务质量
大脑与字节:研究比较AI和临床医生的诊断

奥罗诺——缅因大学的一项研究比较了人工智能模型和人类临床医生在处理复杂或敏感医疗案例时的表现。

这项研究于5月份发表在《卫生组织与管理杂志》上,评估了来自美国和澳大利亚的7,000多条匿名医疗查询。研究结果概述了技术在哪些方面显示出潜力,以及在将AI应用于患者之前需要解决的限制问题。该研究还为未来开发AI工具、临床程序和公共政策提供了参考。此外,该研究还为在医疗人员短缺和临床医生倦怠日益增加的情况下使用AI支持医护人员提供了信息。

研究结果显示,大多数AI生成的回答与专家的信息标准一致,尤其是在事实性和程序性查询方面,但AI在回答“为什么”和“如何”问题时常常表现不佳。

研究还发现,虽然在一次会话中的回答是一致的,但在后续测试中用户提出相同问题时,出现了不一致的情况。这些差异在患者的健康处于风险时尤其令人担忧。这些发现增加了越来越多的证据,定义了AI在医疗保健中的作用。

“这并不是要取代医生和护士,”该研究的作者、缅因商学院信息系统和安全管理副教授C. Matt Graham说。“而是增强他们的能力。AI可以成为第二双眼睛;它可以帮助临床医生筛选大量数据,识别模式,并实时提供基于证据的建议。”

该研究还比较了两国的健康指标,包括患者满意度、成本和治疗效果。在实行全民医疗模式的澳大利亚,患者报告的满意度更高,成本仅为美国的四分之一,而美国的患者等待看诊的时间是澳大利亚的两倍。Graham在研究中指出,医疗系统、监管和文化差异最终将影响AI的接受和使用方式,模型应经过训练以考虑这些差异。

人工情感智能

虽然诊断的准确性很重要,但传达方式也同样重要。研究发现,AI的回答经常缺乏人类临床医生所传达的情感投入和同理心。

AI回答的长度惊人地一致,大多数在400到475个单词之间。相比之下,人类临床医生的回答则更加多样化,对简单问题的回答更为简洁。

词汇分析显示,AI在其回答中经常使用临床术语,这可能难以理解或让一些患者感到冷漠。在涉及心理健康或绝症等话题时,AI难以传达有效医患关系中至关重要的同情心。

“医疗专业人员提供的治疗植根于人与人之间的联系,通过视觉、触觉、存在感和沟通——这些都是AI无法复制的经历,”未参与该研究的缅因大学护理学院副教授Kelley Strout说。“只有在严格的规范、伦理框架和监控错误及意外后果的保障下,AI与临床医生判断力、同情心和循证实践应用之间的协同作用才有可能改变医疗系统。”

紧张的医疗系统

该研究是在美国医疗劳动力普遍且不断增长的短缺背景下进行的。全国各地的患者面临长时间等待、高成本和初级和专科医生短缺的问题。这些障碍在农村地区尤为严重,有限的医疗资源往往导致诊断延迟和健康状况恶化。

2024年,卫生资源和服务管理局发布的一份报告显示,缅因州的初级保健医生与患者比例在全国排名第47位,每名医生负责超过115名患者。尽管越来越多的执业护士和医师助理正在填补这一缺口,但对医疗服务的需求增长更快。缅因州护理行动联盟2024年的报告表明,到2030年,该州将面临超过2,800名护士的短缺。

Strout表示,虽然AI可以帮助改善患者获取医疗服务的机会并缓解挑战(如影响美国超过一半初级保健医生的倦怠),但其使用必须谨慎。

优先考虑提供者和患者

AI驱动的工具可以支持全天候虚拟辅助,并通过在线患者门户等工具补充医患沟通,自2020年以来,这些工具的人气飙升。然而,这项技术也引发了对工作流失的担忧,专家警告称,如果没有伦理护栏,快速实施可能会加剧不平等并损害护理质量。

“技术只是解决方案的一部分,”Graham说。“我们需要监管标准、人类监督和包容性数据集。目前,大多数AI工具都是在有限的人群上训练的。如果我们不小心,我们可能会建立反映甚至放大现有不平等的系统。”

Strout补充说,随着医疗系统将AI整合到临床实践中,管理者必须确保这些工具是为患者和提供者设计的。过去技术整合的经验教训,有时未能增强护理交付,为AI开发者提供了宝贵的指导。

“我们必须从过去的错误中吸取教训。例如,电子健康记录(EHR)主要是围绕计费模型而不是患者结果或提供者工作流程开发的,”Strout说。“因此,EHR系统经常导致提供者的挫败感并降低患者满意度。我们不能重复这段历史,特别是在AI方面。”

其他因素,如错误责任和患者隐私,也是医学伦理学家、政策制定者和AI研究人员关注的重点。这些问题的解决方案可能因采用地点的不同而有所不同,以适应不同的文化和监管环境。

越来越多的专家呼吁在临床和其他环境中部署AI时提供更明确的指导,包括透明度、问责制和同意的协议。这些问题将在6月13日举行的缅因州AI会议上成为焦点。组织者鼓励所有对缅因州未来有利益关系的人,从教育工作者到技术开发者,在6月6日前注册参加这场关键对话。

随着AI的发展,许多专家认为它将提高服务效率和决策能力,从而为患者提供更好的服务。研究结果支持了越来越多的共识,即AI有限的伦理和情感适应性意味着人类临床医生仍然是不可或缺的。Graham表示,除了改进AI工具的性能外,未来的研究还应侧重于管理伦理风险和适应多样化的医疗环境,以确保技术能够增强而不是削弱人类护理。

“技术应该增强医学的人性,而不是削弱它,”Graham说。“这意味着设计支持临床医生提供护理的系统,而不是完全取代他们。”


(全文结束)

大健康
大健康