医疗AI模型需要更多上下文以适应临床应用:挑战与潜在解决方案Medical AI models need more context to prepare for the clinic: Challenges and potential solutions

环球医讯 / AI与医疗健康来源:medicalxpress.com美国 - 英语2026-02-06 03:14:01 - 阅读时长6分钟 - 2513字
哈佛医学院研究人员揭示医疗AI模型在临床应用中的核心瓶颈是"上下文错误"问题,即模型在标准化测试中表现良好却在实际场景中因缺乏医学专业、地理位置和社会经济背景考量而产生误判。研究提出三大解决方案:将上下文信息整合至训练数据集、开发增强型计算基准测试、重构模型架构以纳入背景因素,并深入分析了专科医学、地理差异和社会经济文化对AI诊断的影响,强调构建透明可解释系统及双向人机协作界面的重要性,认为这些突破将显著提升复杂病例的诊疗精准度并避免加剧医疗资源不平等现象。
医疗AI上下文错误临床应用临床决策多专业训练地理背景社会经济因素信任机制透明解释人机协作治疗优化患者护理
医疗AI模型需要更多上下文以适应临床应用:挑战与潜在解决方案

医疗人工智能是一个极具吸引力的概念。理论上,这些模型可以分析大量信息,识别数据中的细微模式,并且永远不会因为太累或太忙而无法提供响应。然而,尽管学术界和工业界已经并仍在开发数千种此类模型,但其中很少有成功过渡到实际临床环境中的。

哈佛医学院Blavatnik研究所的生物医学信息学副教授Marinka Zitnik(玛丽卡·齐特尼克)及其同事正在探索原因——以及如何缩小医疗AI模型在标准化测试案例中的表现与在医院和诊所等场所部署时遇到的问题之间的差距。

在发表于《自然医学》(Nature Medicine)的一篇论文中,研究人员指出了造成这一差距的主要原因:上下文错误。

他们解释说,医疗AI模型可能产生的回应在一定程度上是有用和正确的,但不一定适用于模型所使用的特定上下文——这些上下文包括医学专业、地理位置和社会经济因素等。

"这不是一个小故障,"同时担任哈佛大学Kempner自然与人工智能研究所副教员的Zitnik表示,"这是我们领域中所有类型医疗AI模型的一个普遍限制。"

在与哈佛医学新闻的对话中,Zitnik解释了医疗AI模型中上下文错误的发生机制、研究人员可能如何克服这一及其他挑战,以及她对医学AI未来发展的展望。本次采访经过了篇幅和清晰度的编辑。

为什么会出现上下文错误?如何解决?

我们认为,这些错误发生是因为用于训练医疗AI模型的数据集不包含做出临床决策所需的重要信息。随后,模型生成的建议看似合理且明智,但实际上对患者来说并不相关或不可操作。

为了让医疗AI模型表现更好,它们需要根据特定的上下文信息实时调整其建议。我们建议将此类信息整合到用于训练模型的数据集中。此外,我们呼吁开发增强型计算基准测试(标准化测试案例)来测试训练后的模型。

最后,我们认为关于上下文的信息应该被整合到模型的架构或结构设计中。这三个步骤将有助于确保模型能够考虑不同的上下文,并在模型实施到实际患者护理环境之前检测到错误。

您给出了三个关于缺乏上下文如何导致医疗AI模型错误的例子。能详细说明一下吗?

让我们从医学专业开始。患者可能有跨越多个专业的复杂症状。如果一名患者因神经系统症状和呼吸问题来到急诊科,他们可能会先被转诊给神经科医生,然后是肺科医生。每位专家都带来了由其培训和经验塑造的深厚专业知识,因此理所当然地专注于他们自己的器官系统。

一个主要在某一专业上训练的AI模型可能会做同样的事情,这意味着它可能基于错误专业的数据提供答案,或者忽略症状组合指向多系统疾病的事实。

相反,我们需要开发在多个专业上训练的医疗AI模型,这些模型可以实时切换上下文,以关注最相关的信息。

地理背景呢?

如果一个模型在不同的地理位置被提出相同的问题并给出相同的答案,那么这个答案很可能是不正确的,因为每个地方都有特定的条件和限制。

如果一名患者容易患上可能导致器官功能障碍或衰竭的疾病,临床医生需要确定该患者的风险并制定管理计划。然而,该患者是在南非、美国还是瑞典,可能在疾病普遍程度以及批准和可用的治疗和程序方面有很大差异。

我们设想一个能够整合地理信息的模型,以产生特定于地点、因此更准确的回应。我们正在实验室中研究这一点,我们认为这对全球健康可能有重大影响。

第三个例子,影响患者行为的社会经济和文化因素呢?

假设一名患者在之前被转诊给肿瘤科医生但从未预约后,因严重症状出现在急诊科。急诊科医生的典型反应可能是提醒患者预约肿瘤科。

然而,这忽略了潜在的障碍,例如患者住在离肿瘤科医生很远的地方、没有可靠的儿童保育服务,或者无法缺勤工作。这些类型的限制在患者的电子健康记录中并不明确存在,这意味着帮助管理患者的AI模型也不会将其考虑在内。

更好的模型会考虑这些因素,提供更现实的建议,可能是提供交通选择,或在适应儿童保育或工作限制的时间安排预约。这样的模型将增加更广泛患者的医疗可及性,而不是强化不平等。

除了上下文错误外,医疗AI实施中还有哪些主要挑战?

有很多。一个与患者、临床医生、监管机构和其他利益相关者对医疗AI模型的信任程度有关。我们需要确定既能确保模型可信又能促进对这些模型信任的机制和策略。

我们认为答案与构建提供透明且易于解释的建议并在对其结论不自信时说"我不知道"的模型有关。

另一个挑战与人机协作有关。目前,许多人将人机界面视为聊天机器人的背景,在其中你输入一个问题并得到一个回答。我们需要人们可以接收针对其特定背景和专业知识水平定制的回应的界面——例如,适合普通受众与医学专家的内容。

我们还需要临床医生或患者与AI模型双向交换信息的界面。真正的协作意味着有一个AI模型必须完成的问题、目标或任务,为此,它可能需要从用户那里寻求更多信息。

如果挑战能够克服,您认为医疗AI的前景是什么?

一些模型已经通过使日常医疗工作更高效而产生了影响。例如,模型正在帮助临床医生起草患者记录,并帮助研究人员快速找到可能与临床问题相关的科学论文。

我特别兴奋于AI模型为改善治疗创造的机会。能够切换上下文的模型可以根据治疗过程中最有用的信息调整其输出。例如,一个模型可能会从分析症状转向建议可能的原因,再到提供在类似患者中有效的治疗证据。

然后,模型可能会转向提供关于患者先前用药、潜在药物副作用以及实际可用的治疗的实用信息。如果做得好,这可以帮助临床医生为具有多种疾病和药物的复杂患者制定治疗决策,这些患者可能超出标准治疗指南。

我们如何确保医疗AI模型带来的好处多于伤害?

我当然认为医疗保健中的AI将会持续存在。这项技术虽然不完美,但已经在使用中,因此医疗AI社区中的每个人都需要共同努力,确保它以负责任的方式开发和实施。

这包括在设计和优化模型时考虑实际应用,进行实际测试以了解模型在哪些方面成功,在哪些方面不足,以及制定模型应如何部署的指南。

如果AI研究人员在这些模型的开发中保持一致,我们提出正确的问题,我相信我们可以及早发现任何问题。

最终,我认为医疗AI模型将有许多机会来提高医学研究和临床工作的效率,并改善患者的护理。

【全文结束】