医疗AI数据输入如何助力或损害医疗保健Here's how the data fed into medical AI can help — or hurt — health care | GBH

环球医讯 / AI与医疗健康来源:www.wgbh.org美国 - 英语2026-04-27 12:25:24 - 阅读时长3分钟 - 1327字
本文通过GBH《晨间新闻》主持人马克·赫兹对麻省理工学院计算机科学教授玛齐耶·加塞米的深度访谈,系统剖析了医疗人工智能的核心挑战。加塞米揭示训练数据中存在的虚假相关(如非裔美国人因就医延迟导致肺炎影像特征偏差)会引发算法歧视,使黑人患者需病情更严重才能被诊断出肺炎。她指出当前AI部署过度聚焦行政效率而忽视临床价值,主张从三方面革新:在数据收集中引入专家标注建立黄金标准;采用强化学习引导模型学习理想行为而非简单模仿人类;将应用重点转向人类能力局限的领域(如早期乳腺癌检测、子宫内膜异位症诊断)。文章强调医疗AI不应追求完全替代医生,而需通过人机协同优化诊疗流程,在慢性病管理等领域加速精准治疗方案生成,最终提升患者体验与医疗公平性。
医疗AI数据输入医疗保健医疗数据偏差系统性偏见精准治疗慢性病管理早期癌症检测临床诊断深度学习模型
医疗AI数据输入如何助力或损害医疗保健

人工智能正逐步融入我们生活的方方面面,医学领域也不例外。近年来,AI在医疗领域得到广泛应用,特别是在行政支持、诊断和影像学方面。为了深入了解,GBH《晨间新闻》主持人马克·赫兹采访了麻省理工学院计算机科学教授玛齐耶·加塞米,探讨AI在医学中日益重要的地位所蕴含的机遇与风险。以下是经轻微编辑的访谈实录。

马克·赫兹:首先需要澄清概念。我们讨论的是大型语言模型(LLMs)吗?

玛齐耶·加塞米:LLMs确实是当前流行的机器学习模型之一。其普及源于面向公众的开放接口——若要操作其他AI模型,通常需要专业知识。这种开放接口使LLMs备受瞩目,但我们实际讨论的是包括LLMs在内的所有深度学习模型。

赫兹:您的研究揭示了输入医疗AI的数据可能引发问题。具体存在哪些问题?根源何在?

加塞米:问题与根源紧密相连。机器学习中存在"虚假相关"现象,即模型依赖数据中的捷径而非真实特征进行判断。例如,若远处看不清动物是狐狸还是狗,因身处城市公园就默认是狗——这利用了背景知识而非动物本身特征。医疗数据同样存在此类隐藏捷径。以美国为例,非裔美国人往往比其他群体更晚获得医疗服务,导致其肺炎确诊时影像特征通常更严重。AI模型无法识别"仅黑人患者呈现严重肺炎"这一关联的不合理性,反而学习到"黑人患者必须病得更重才会被诊断为肺炎"的错误模式。这种偏差在皮肤癌诊断等所有医疗领域普遍存在,根源在于训练数据反映了既有医疗流程中的系统性偏见。

赫兹:这是否属于"垃圾进,垃圾出"的情况?解决方案是获取更优质、更大量或更多元的数据吗?

加塞米:修复需多管齐下。理想情况是拥有展现完美医疗行为的数据集,但现实中不可能存在"完美医生在完美医疗体系"的范本。与其追求不切实际的完美数据,不如转变模型训练思路:我们当前优化模型以模仿人类行为的做法是否合理?或许应减少对海量无监督数据的依赖,更多注入人类专业知识与监督机制。

赫兹:具体如何实现这种转变?

加塞米:首先可构建行为黄金标准数据集,但这需要医生等专家投入大量精力标注关键医疗记录,明确哪些人类行为是理想且值得模型学习的。借助强化学习技术,我们能训练模型趋近理想行为而非简单复制现有行为。其次需思考政策层面的部署模式:医生希望AI如何辅助工作?是生成需人工修改的临床记录(如当前语音转文本系统),还是提供建议以优化记录流程或标记潜在错误?当前医疗AI部署过度侧重效率与成本节约,而非为医生创造更多患者互动空间或提升工具资源。我主张在数据收集、模型训练方法上变革,同时调整AI应用的重点领域。

赫兹:当前哪些医疗AI应用真正有益于医生并改善患者体验?

加塞米:自动化繁琐工作的初衷良好(如减少记录负担),但实际部署中尚未证实其能改善临床行为或患者预后。即便可能节省成本,这也不应是主要发力方向。最具潜力的领域是人类存在固有局限的场景,例如亚临床表现的早期乳腺癌检测。在子宫内膜异位症诊断(平均耗时漫长)或糖尿病等慢性病管理(需随病程调整多药联用方案)中,AI系统能显著加速精准治疗方案的生成,这正是值得重点投入的方向。

【全文结束】