如果放射科医生能够使用AI系统作为可靠的诊断助手会怎样?我们的最新研究使这一愿景更接近现实:通过生成式AI技术,我们可以基于真实的X光影像探索替代场景,例如患者在没有特定疾病情况下的身体状况。这为医生提供了安全且可解释的AI工具,以做出更好的患者决策。
PRISM:使用语言引导的稳定扩散技术实现高分辨率和精确反事实医学影像生成(已被MIDL 2025接受为口头报告),为临床医生提供了一个不仅能解释医学影像内容,还能生成高分辨率、精确的“反事实”版本影像的模型,从而实现个性化患者护理并增强对决策过程的信任。
通过对数千张医学影像进行微调(基于视觉-语言基础模型Stable Diffusion),我们开发了一种既值得信赖又足够可解释的AI模型,适用于真实世界的临床环境。
PRISM的特点包括:
- 易于使用自然语言操作;
- 可信,因为它专注于基于影像的可解释性;
- 适应多种医学成像场景。
打开黑箱
在实际医疗环境中使用AI的主要障碍在于,大多数模型的决策过程是隐藏的:医生通常只能看到输出结果(例如,“给定的医学影像显示患者健康或患病”)。
当前的医学影像AI模型主要使用分类器或“黑箱”模型进行疾病诊断。由于这种“黑箱”特性,缺乏可解释性:我们不知道模型如何得出某一特定决策。这些解决方案在真实医疗场景中实施时面临挑战,因为在医疗环境中,决策过程与诊断本身同样重要。
为了增强对医学影像AI工具的信任,我们研究了模型在判断患者状况时关注的内容以及哪些因素影响其决策。我们的目标是打开黑箱,揭示幕后的真相:如果患者生病了,我们需要知道原因。
对过程的信任
我们通过生成高分辨率的反事实影像解决了黑箱模型的根本问题——即生成特定属性被改变的替代场景,例如从原始影像中移除某种疾病病理或医疗设备。
该模型执行精确编辑,忽略疾病的其他混淆因素——这些隐藏因素可能表明暴露与疾病之间的关系。通过对比事实影像和反事实影像,可以清楚地看到生成影像所需更改的具体区域,突出显示模型与疾病相关的区域。
PRISM还避免了数据集中存在的虚假相关性(或捷径),这些相关性可能会影响模型的泛化能力(即适应未见数据的能力)。例如,一个通过研究患病患者影像学习疾病特征的模型可能会错误地将疾病与治疗设备(如胸管或起搏器)联系起来。
提高可访问性
为了使模型更具可访问性,我们引入了语言引导功能:医生可以通过提示让模型从健康患者的X光片生成患病患者的影像,模型将合成所需的影像。
PRISM可以开发为医学影像分析的后端软件,或集成到现有工具中,成为执业放射科医生的有效AI助手或未来医生的可靠培训工具。我们的开源权重允许进一步微调,以适应更多医学成像场景。
- 🛠️ 项目页面:
- 📝 开放评审:
- 💻 代码:
(全文结束)


