医疗AI模型需更多上下文以准备临床应用Medical AI Models Need More Context To Prepare for the Clinic | Newswise

环球医讯 / AI与医疗健康来源:www.newswise.com美国 - 英文2026-02-08 03:00:17 - 阅读时长5分钟 - 2188字
哈佛医学院研究人员揭示医疗AI模型在临床部署中面临的核心挑战——上下文错误,即模型虽在标准测试中表现良好,却常因忽略医学专业差异、地理区域特征及社会经济因素而产生脱离实际的输出;研究提出通过整合多源上下文数据、开发针对性测试基准和优化模型架构三大策略来弥合理论与实践差距,并强调需解决信任机制与人机协作界面问题以实现AI在个性化治疗中的潜力,最终推动医疗效率提升并避免加剧健康不平等,该成果发表于《自然医学》期刊为负责任AI落地临床提供关键路径。
医疗AI模型上下文错误临床应用训练数据多专科地理信息社会经济因素人机协作个性化决策负责任部署医疗效率
医疗AI模型需更多上下文以准备临床应用

医疗人工智能是一个极具吸引力的概念。理论上,模型能够分析海量信息,识别数据中的细微模式,并且永远不会因疲惫或忙碌而无法提供响应。然而,尽管学术界和产业界已经开发并持续开发了数千种此类模型,但其中很少有成功过渡到医院和诊所等实际临床环境中的。

哈佛医学院布萊瓦特尼科学院生物医学信息学副教授马林卡·齐特尼克(Marinka Zitnik)及其同事正在探究这一现象的原因——即为何医疗AI模型在标准化测试案例中表现优异,但在真实临床场景中却问题频发。在2月3日发表于《自然医学》(Nature Medicine)的论文中,研究人员指出上下文错误是导致这一差距的主要因素。

他们解释道,医疗AI模型可能生成部分有用且正确的响应,但这些响应未必适用于模型实际应用的特定上下文,例如医学专业领域、地理位置和社会经济因素等。“这并非微小偏差,”齐特尼克表示,她同时担任哈佛大学凯姆普纳自然与人工智能研究所的副教员,“这是当前医疗AI领域所开发各类模型的普遍局限。”

在与《哈佛医学院新闻》(Harvard Medicine News)的对话中,齐特尼克阐释了医疗AI模型中上下文错误的成因、研究者可能的解决方案以及她对医学AI未来发展的展望。本次访谈已为篇幅和清晰度进行编辑。

哈佛医学院新闻: 为何会发生上下文错误?如何修复?

马林卡·齐特尼克: 我们认为这是因为用于临床决策的关键信息未包含在医疗AI模型的训练数据集中。模型因此生成看似合理但实际对患者无关或不可操作的建议。为使医疗AI模型表现更佳,它们需基于特定上下文信息实时调整建议。我们建议将此类信息纳入模型训练数据集;同时呼吁开发增强型计算基准(标准化测试案例)进行模型训练后测试;最后,我们认为上下文信息应融入模型架构或结构设计中。这三个步骤将确保模型能考量不同上下文,并在部署至实际患者护理环境前检测错误。

哈佛医学院新闻: 您列举了三个因缺乏上下文导致医疗AI模型错误的实例,能否详细说明?

齐特尼克: 以医学专业为例。患者症状可能跨越多个专科领域。若急诊患者出现神经系统症状和呼吸问题,可能先转诊神经科再转肺科。每位专科医生基于其培训和经验具备深度专长,因此自然聚焦自身器官系统。若AI模型主要基于单一专科数据训练,可能同样忽略多系统疾病的症状组合指向。

相反,我们需要开发能实时切换上下文的多专科医疗AI模型,以聚焦最相关的信息。

哈佛医学院新闻: 地理背景的影响如何?

齐特尼克: 若模型对不同地理区域的相同问题给出一致答案,该答案很可能错误,因为各地存在特定条件和约束。例如患者若患有可能导致器官功能障碍的疾病,临床医生需评估其风险并制定管理计划,但患者身处南非、美国或瑞典,该疾病的普遍性及获批治疗方案将大相径庭。

我们设想开发能整合地理信息的模型,以生成地域特异性且更精准的响应。我们实验室正推进此方向研究,认为其对全球健康具有重大意义。

哈佛医学院新闻: 第三个实例涉及影响患者行为的社会经济与文化因素?

齐特尼克: 假设患者因先前转诊肿瘤科却未预约而以严重症状急诊就诊。急诊医生的典型回应可能是提醒患者预约肿瘤科。但这忽略了潜在障碍,如患者住所远离诊所、缺乏可靠 childcare 或无法请假。此类约束通常不会显式存在于电子健康记录中,因此辅助管理的AI模型同样无法考量。

更优模型应纳入这些因素以提供更现实的建议,例如提供交通选项或安排适配 childcare 与工作约束的预约时间。此类模型将扩大医疗服务可及性,而非加剧不平等。

哈佛医学院新闻: 除上下文错误外,医疗AI实施还有哪些重大挑战?

齐特尼克: 挑战众多。其一是患者、临床医生、监管机构等利益相关方对医疗AI模型的信任度。我们需要建立既能确保模型可信又促进信任的机制与策略。我们认为关键在于构建能提供透明易解建议并在结论不确定时明确表示“无法确定”的模型。

另一挑战涉及人机协作。当前许多界面设计仍停留于聊天机器人的单向问答模式。我们需要根据用户背景与专业水平定制响应的界面——例如面向普通公众与医学专家的不同内容。同时需要支持临床医生、患者与AI模型双向信息交换的界面。真正的协作意味着AI需完成特定任务目标,并在过程中主动向用户索取补充信息。

哈佛医学院新闻: 若克服挑战,医疗AI的前景如何?

齐特尼克: 部分模型已通过提升日常医疗效率产生影响,例如辅助临床医生撰写患者病历或帮助研究者快速筛选相关临床文献。

我尤其期待AI模型在优化治疗中的机遇。能切换上下文的模型可根据治疗流程不同阶段调整输出:例如从症状分析转向病因推测,再提供相似患者的有效治疗证据,最终整合患者既往用药、潜在药物副作用及可用治疗方案。若实现得当,这将帮助临床医生为多重病症且用药复杂的患者制定个性化决策,尤其当其超出标准治疗指南时。

哈佛医学院新闻: 如何确保医疗AI模型利大于弊?

齐特尼克: 我坚信医疗AI将持久存在。尽管技术尚不完善,但其应用已成现实,因此整个医疗AI社区必须协作确保其负责任地开发与部署。这包括设计模型时考量实际应用场景、开展实地测试以明确模型优缺点、制定部署指南。若AI研究者能在开发中保持对齐并提出正确问题,我乐观认为能及早发现问题。

最终,医疗AI模型将大幅提高医学研究与临床工作的效率,并为患者提供更优护理。

【全文结束】