基于3D MRI的阿尔茨海默病分类:采用防数据泄露受试者级别评估的多模态3D CNN方法3D MRI-Based Alzheimer’s Disease Classification Using Multi-Modal 3D CNN with Leakage-Aware Subject-Level Evaluation

环球医讯 / 认知障碍来源:arxiv.org孟加拉国 - 英语2026-04-22 17:20:26 - 阅读时长25分钟 - 12078字
本研究提出了一种基于原始OASIS-1 MRI体积数据的多模态3D卷积神经网络方法用于阿尔茨海默病分类,创新性地结合T1结构图像与灰质、白质及脑脊液概率图,并采用严格的受试者级别交叉验证评估策略,有效避免了数据泄露问题。研究结果表明该方法在受试者级别评估中达到72.34%±4.66%的平均准确率和0.7781±0.0365的ROC-AUC值,GradCAM可视化证实模型关注的内侧颞叶和脑室区域与阿尔茨海默病相关结构变化高度一致,同时通过对比实验证明了数据表示方式和评估协议对报告性能的重要影响,为3D MRI在阿尔茨海默病诊断中的应用提供了可重复的基准。
阿尔茨海默病痴呆3DMRI多模态3DCNN受试者级别评估防数据泄露神经解剖脑区分析
基于3D MRI的阿尔茨海默病分类:采用防数据泄露受试者级别评估的多模态3D CNN方法

基于3D MRI的阿尔茨海默病分类:采用防数据泄露受试者级别评估的多模态3D CNN方法

Md Sifat1, Sania Akter1, Akif Islam1, Md. Ekramul Hamid1,

Abu Saleh Musa Miah2, Najmul Hassan2, Md Abdur Rahim3, Jungpil Shin2

摘要

深度学习已成为从结构磁共振成像(MRI)进行阿尔茨海默病(AD)分类的重要工具。许多现有研究分析从MRI体积中提取的单个2D切片,而临床神经影像实践通常依赖于大脑的完整三维结构。从这一角度来看,体积分析可能更好地捕捉与疾病进展相关的脑区空间关系。受此启发,本工作提出了一种使用原始OASIS-1 MRI体积数据的多模态3D卷积神经网络用于AD分类。该模型结合了结构T1信息与通过FSL FAST分割获得的灰质、白质和脑脊液概率图,以捕获互补的神经解剖学信息。所提出的方法在临床标记的OASIS-1队列上使用5折受试者级别交叉验证进行评估,平均准确率达到72.34%±4.66%,ROC-AUC为0.7781±0.0365。GradCAM可视化进一步表明,该模型关注解剖学上有意义的区域,包括内侧颞叶和脑室区域,这些区域已知与阿尔茨海默病相关的结构变化有关。为了更好地理解数据表示和评估策略如何影响报告的性能,还在切片级别和受试者级别协议下对数据集的切片版本进行了额外的诊断实验。这些观察结果有助于为体积分析结果提供背景。总体而言,所提出的多模态3D框架建立了一个可重复的受试者级别基准,并强调了体积MRI分析在阿尔茨海默病分类中的潜在益处。

I 引言

阿尔茨海默病(AD)是最常见的痴呆形式,也是全球主要的健康挑战,影响全球超过5500万人[19]。由于AD是进行性和不可逆的,更早、更可靠的诊断对于临床监测、治疗规划和支持性护理仍然至关重要。因此,结构磁共振成像(MRI)广泛用于AD研究,因为它可以揭示与疾病进展相关的神经解剖学变化,包括海马萎缩、皮质变薄和脑室扩大[7]。

深度学习已成为从MRI进行自动化AD分类的流行方法,许多研究在OASIS-1等公共数据集上报告了非常高的准确率[10]。然而,高数值性能并不一定意味着有意义的临床学习。因此,一个核心问题出现了:这些模型是否真正学习了与疾病相关的神经解剖学模式,还是依赖于周围图像特征、预处理伪影和特定于受试者的线索?这个问题在医学影像中尤为重要,因为在医学影像中,仅凭强大的预测性能并不能保证临床有意义的学习。

影响报告性能的一个重要因素是MRI数据的划分方式。由于体积MRI包含来自同一受试者的许多高度相似的2D切片,切片级别划分可能将相关切片放置在训练、验证和测试集中。在这种与患者相关的设置中,模型可能显得高度准确,而在受试者级别上无法泛化[11, 12]。第二个关注点涉及数据集构建。OASIS-1的公开再分发版本,特别是Kaggle衍生的切片数据集,使用方便但并不总是清楚地记录受试者选择、预处理或标签处理。在某些情况下,未标记的受试者可能实际上被视为健康对照组,为报告结果引入进一步的不确定性。

受这些关注点的启发,本工作提出了一种防数据泄露的多模态3D CNN,用于使用原始OASIS-1 MRI体积数据进行阿尔茨海默病分类。该模型整合了结构T1信息与从分割中获得的组织概率图,以捕获互补的神经解剖学信号。为了更好地理解文献中报告的差异,我们还使用切片数据集在不同评估协议下进行诊断实验。

本文的主要贡献如下:

  1. 我们提出了一种从原始OASIS-1 MRI体积数据进行阿尔茨海默病分类的多模态3D CNN,将T1强度与灰质、白质和脑脊液概率图相结合。
  2. 我们在临床标记的OASIS-1队列上使用5折分层交叉验证建立了一种防数据泄露的受试者级别评估协议。
  3. 我们使用GradCAM提供可解释性分析,以检查模型决策是否与已知的阿尔茨海默病相关解剖区域一致。
  4. 我们报告了在切片级别Kaggle衍生数据集上的支持性诊断观察,以说明评估协议如何影响报告的性能。

II 相关工作

深度学习已成为从结构MRI进行阿尔茨海默病(AD)分类的广泛使用方法。近期研究探索了各种架构,包括卷积神经网络、基于Transformer的模型和混合设计。例如,Al-malki等人[3]提出了一种用于四类AD分期的混合ResNet101-ViT架构,并在OASIS-1上报告了98.7%的准确率。Keles等人[1]结合伪彩色变换与Vision Transformer,报告了99.79%的准确率和完美的AUC。Dag等人[5]介绍了一种在矢状面MRI切片上运行的轻量级CNN,达到了97-98%的准确率,而Ullah等人[18]通过自适应注意力结合ResNet50和ViT特征,报告了99.42%的准确率。其他研究探索了替代特征表示,例如与DenseNet121的拓扑特征融合[2]。

这些方法中的许多都在从体积MRI扫描中提取的二维切片上运行。基于切片的表示在计算上高效,并允许模型从每个MRI体积派生的大量训练样本中学习,这有助于其在文献中的流行。然而,一些方法学研究表明,当处理基于切片的数据时,评估策略会影响报告的性能。特别是,当多个高度相似的切片来自同一受试者时,按切片级别划分数据集可能导致比在受试者级别评估泛化时报告的准确率更高。

这一观察已在先前的神经影像研究中讨论过。Tufail等人[16]使用受试者级别交叉验证在OASIS-1上评估了几种深度架构,并报告了63%至65%的准确率。同样,Yagis等人[20]比较了多个CNN模型,观察到从切片级别转换到受试者级别评估协议时准确率下降。其他分析也强调了为体积医学影像数据集仔细设计数据划分策略的重要性[11, 12]。这些工作表明,将受试者视为评估的主要单位可能为基于MRI的研究中模型泛化提供更具临床意义的估计。

可解释性也成为AD分类研究的一个重要方面。GradCAM[13]等可视化技术通常用于检查对模型预测有贡献的脑区。在AD相关的MRI分析中,有意义的激活通常预期出现在与疾病进展相关的区域,如海马、内侧颞叶、内嗅皮层和脑室区域[7]。此类分析有助于确定学习到的表示是否与已知的神经解剖学模式一致。

II-A 研究差距

尽管许多深度学习模型报告了AD分类的强性能,但几个方法学方面仍未得到充分探索。首先,虽然基于切片的方法被广泛使用且计算效率高,但体积MRI本质上包含三维结构关系,这些关系可能无法通过单个切片完全捕获。其次,不同研究中评估协议的差异使得直接比较报告结果具有挑战性。最后,相对较少的研究检查模型预测是否对应于具有临床意义的解剖区域。

受这些考虑因素的启发,本工作研究了使用直接应用于原始OASIS-1 MRI体积数据的多模态3D卷积神经网络进行阿尔茨海默病分类。通过将结构T1图像与灰质、白质和脑脊液概率图集成,并使用受试者级别交叉验证评估模型,所提出的方法旨在提供一个可重复的体积基准,同时通过GradCAM分析检查模型预测的解剖合理性。

III 方法学

本节介绍了从原始OASIS-1 MRI体积数据进行阿尔茨海默病分类的防数据泄露多模态3D CNN。该方法旨在保留体积神经解剖学结构,整合互补的基于组织的信息,并在严格的受试者级别验证下评估性能。

III-A 数据集描述

III-A1 原始OASIS-1概述

开放获取影像研究系列(OASIS-1)[10]是一个广泛使用的公共神经影像数据集,包含416名18-96岁受试者的横断面T1加权结构MRI扫描。其中,100名60岁以上的受试者被临床诊断为轻度至中度阿尔茨海默病。OASIS-1中的痴呆严重程度使用临床痴呆评定(CDR)量表进行注释,该量表将受试者分为非痴呆、轻度、中度和重度痴呆组,如表I所示。

表I:OASIS-1中使用的临床痴呆评定(CDR)类别

CDR值 临床类别
0.0 非痴呆
0.5 轻度痴呆
1.0 中度痴呆
2.0 重度痴呆
III-A2 本研究中使用的标记子集

尽管OASIS-1包含416名受试者的436次MRI扫描,但只有235名受试者具有适合监督性痴呆分类的CDR注释。其余受试者不包括CDR标签,因此在实验中被排除。本研究中使用的临床标记队列总结在表II中。这个子集构成了本工作后面报告的原始体积实验的基础。

表II:临床标记的OASIS-1队列分布

CDR标签 N 平均年龄 平均MMSE 男性 女性
0.0 非痴呆 135 69.07 29.10 38 97
0.5 轻度AD 70 76.21 25.64 31 39
1.0 中度AD 28 77.75 21.68 9 19
2.0 重度AD 2 82.00 15.00 1 1

图1:所提出的多模态3D CNN架构概述,其中特定模态编码器独立处理T1、灰质、白质和脑脊液输入,并通过共享的后期融合分类头融合其学习的表示,用于二元痴呆分类。

III-A3 Kaggle衍生的OASIS-1切片数据集

一个广泛使用的OASIS-1的Kaggle再分发版本将数据提供为预提取的2D JPEG切片,而不是原始的3D MRI体积。为了检查其与原始数据集的关系,从切片标题中追踪了受试者标识符,并与本研究中使用的临床标记OASIS-1队列进行了比较。Kaggle衍生数据集的类别组成总结在表III中。

表III:Kaggle衍生的OASIS-1切片数据集分布

类别 唯一受试者 总切片数
非痴呆 285 67,222
轻度痴呆 58 13,725
中度痴呆 21 5,002
重度痴呆 2 488
总计 366 86,437

Kaggle数据集包含366个唯一受试者,而本研究中使用的临床标记原始OASIS-1子集包含235名受试者。这种差异表明再分发的切片数据集并不完全对应于标记的原始队列,可能反映了受试者纳入或预处理程序的差异。对切片的视觉检查还表明存在残余颅骨边界和背景区域,可能影响2D模型行为。

III-B 问题表述

本研究中使用的临床标记OASIS-1子集包含235名具有临床痴呆评定(CDR)注释的受试者。由于重度痴呆类别仅包含两名受试者,细粒度多类受试者级别评估在统计上不稳定。因此,该任务被表述为二元分类问题,其中CDR=0的受试者被分配到非痴呆类别,所有CDR>0的受试者被归入单个痴呆类别。这产生了135名非痴呆和100名痴呆受试者。

III-C 原始MRI预处理流程

图2:预处理的多通道MRI输入。通道0:偏场校正T1图像;通道1-3:来自FSL FAST分割的灰质、白质和脑脊液概率图。

所提出的方法直接在OASIS-1数据集[10]的原始T1加权NIfTI体积上运行。每个MRI体积最初的空间大小为256×256×128。为了生成解剖学对齐的多模态输入,使用ANTsPy 0.6.1和FSL进行预处理。

首先应用N4偏场校正以减少强度不均匀性[17]。然后使用FSL BET[14]去除非脑组织,接着使用FSL FLIRT进行仿射配准到MNI152模板,以实现受试者间的空间对齐。随后使用FSL FAST[23]进行组织分割,获得灰质(GM)、白质(WM)和脑脊液(CSF)概率图。

最后,偏场校正的T1图像和三个组织概率图被归一化并堆叠成四通道表示。预处理后,每个受试者表示为大小为(91×109×91×4)的3D张量,对应于T1、灰质、白质和脑脊液。

III-D 在切片数据集上的支持诊断实验

为了为原始体积结果提供额外背景,并检查评估协议如何影响报告的性能,我们在Kaggle衍生的OASIS-1切片数据集上进行了两项支持诊断实验。在第一个实验中,切片按切片级别划分,复制了文献中的常见设置。在第二个实验中,使用70/15/15受试者级别训练、测试、验证划分强制实施严格的受试者级别分离,确保没有受试者出现在多个分区中。

III-E 提出的多模态3D CNN

所提出的模型是一种多模态3D卷积神经网络,从每个MRI体积获取四个互补输入:偏场校正的T1图像和相应的灰质(GM)、白质(WM)和脑脊液(CSF)概率图。如图1所示,该网络遵循后期融合设计,其中每个模态独立处理,然后将学习的特征组合用于最终分类。

这种设计是由输入通道的不同角色激发的。T1体积保留结构强度信息,而灰质、白质和脑脊液图提供可能更明确反映阿尔茨海默病相关变化的组织特异性线索。特别是,灰质损失和脑室脑脊液扩大是已知的疾病进展结构标志[7]。因此,独立处理每个模态允许网络学习更好地匹配每个信号特征的特征,然后再进行融合[4, 8, 21]。

每个模态特定分支实现为轻量级3D CNN,具有三个Conv3D-BatchNorm-ReLU块,输出通道分别为16、32和64[6, 22]。在前两个块之后应用最大池化,最后的全局平均池化层为每个模态生成紧凑的64维嵌入[9]。四个嵌入然后被连接成256维融合表示,通过共享分类头传递,该分类头由Linear(256→128)、ReLU、Dropout(p=0.30)和Linear(128→2)层组成。Dropout用于改善正则化并减少融合特征之间的共适应[15]。

总体而言,所提出的架构学习模态特定结构模式及其联合交互,为从原始体积MRI进行阿尔茨海默病分类提供了一个紧凑且可解释的框架。

III-F 训练和防数据泄露评估协议

所提出的模型使用5折分层交叉验证在所有235名临床标记受试者上进行了评估。该协议旨在保留数据集的类别分布,在每个折中保持非痴呆和痴呆受试者之间约57:43的比例。在每次迭代中,一个包含约47名受试者的折被保留用于测试,而剩余受试者进一步划分为训练和验证子集,比例为90/10。

为确保严格的受试者级别分离,还进行了事后交叉检查,确认没有受试者同时出现在任何折的训练、验证和测试分区中。采用此协议是为了提供对受试者级别泛化的更可靠估计。

图3:所提出的多模态3D框架中输入MRI体积与其相应GradCAM显著性图的定性比较。

III-G 可解释性分析

为了检查所提出的模型是否依赖于解剖学上有意义的模式,将GradCAM[13]应用于训练的3D网络。定性分析了生成的显著性图,以评估模型注意力是否集中在通常与阿尔茨海默病相关的脑区,如内侧颞叶和脑室区域,而不是无关的边界或背景结构。

IV 结果与讨论

图4:所提出的多模态3D CNN在五个受试者级别交叉验证折上的训练和验证损失曲线。每个面板中的虚线标记了该折选定的最佳检查点的轮次。

IV-A 在原始OASIS-1上的所提多模态3D CNN结果

所提出的多模态3D CNN在原始OASIS-1 MRI体积上使用5折受试者级别交叉验证,平均准确率达到72.34%±4.66%,平均ROC-AUC为0.7781±0.0365。这些结果为使用体积MRI和多模态结构输入进行阿尔茨海默病分类提供了可重复的受试者级别基准。

表IV:所提多模态3D CNN的折间和平均性能

准确率(%) ROC-AUC
折1 76.6 0.7759
折2 72.3 0.7926
折3 63.8 0.7093
折4 76.6 0.8130
折5 72.3 0.8000
平均 72.34±4.66 0.7781±0.0365

如表IV所示,性能在折间保持合理稳定,最强结果在折1和折4中观察到,最弱结果在折3中。折间结果表明,该模型识别非痴呆受试者比识别痴呆受试者更可靠,表明在当前二元筛查设置中,漏诊阳性病例仍然是一个重要限制。

最重要的是,图3中的GradCAM可视化显示,激活集中在内侧颞叶和脑室区域周围,这些区域与已知的阿尔茨海默病相关结构变化更一致。这表明所提出的模型捕获了解剖学上有意义的模式,在相关脑区中比在支持性切片实验中观察到的更清晰地定位。如图4所示,训练动态在折间也保持稳定。

IV-B 在切片数据集上的支持诊断实验

为了为最终原始体积结果提供额外背景,我们还在Kaggle衍生的切片数据集上进行了两项支持诊断实验。

IV-B1 切片级别评估

在原始切片级别评估设置下,复制的切片管道达到了99.19%的测试准确率。虽然这个结果看起来极具竞争力,但它是在同一受试者的高度相似切片可能出现在训练和测试分区中的设置下获得的。

图5:切片级别评估:输入MRI切片和相应GradCAM图。图5中的GradCAM示例显示注意力集中在边界和周围区域附近,而不是清晰定位的神经解剖结构。这一观察激发了在更严格的受试者级别评估下进行进一步检查。

IV-B2 切片数据集上的受试者级别评估

在强制实施严格的受试者级别分离(70/15/15)后,在53名受试者的测试集上准确率降至79.25%。此外,类别性能变得不太平衡:主要的非痴呆类别仍然更容易识别,而中度痴呆和轻度痴呆更难分类,导致宏F1分数为0.435。

图6:受试者级别评估:输入MRI切片和相应GradCAM图。与切片级别相比,此受试者级别设置为基于切片的泛化提供了更现实的估计。然而,图6中的GradCAM示例仍然表明注意力集中在边界和背景区域周围,表明切片表示可能仍然对表面线索敏感。这些支持性实验为最终原始体积多模态模型中观察到的更强解剖合理性提供了背景。

IV-C 所提模型的性能和解剖合理性

表V:与OASIS-1上受试者级别研究的比较

研究 数据集 模型 输入/划分 准确率(%)
Tufail等人[16] OASIS-1 (416) InceptionV3, Xception 2D切片,受试者级别5折CV 63–65
Yagis等人[20] OASIS-1 (200) VGG16, VGG19, ResNet-18 2D切片,受试者级别划分 66
本研究 OASIS-1 (235) 多模态3D CNN 3D体积,5折受试者CV 72.34

表V将所提出的模型置于OASIS-1上先前受试者级别研究的背景中。与早期基于2D切片的方法相比,所提出的多模态3D CNN在类似严格的受试者级别评估设置下实现了更强的性能。这表明将体积T1信息与灰质、白质和脑脊液概率图结合有助于捕获用于阿尔茨海默病分类的有用结构模式。

除了数值性能外,该模型还显示出更有意义的注意力模式。GradCAM可视化表明,网络关注内侧颞叶和脑室区域,这些区域已知与阿尔茨海默病相关结构变化有关[7]。相比之下,支持性切片实验通常在边界和背景区域附近显示更强的激活,即使在受试者级别分离后。综合这些发现表明,所提出的体积模型不仅提供了可重复的受试者级别基准,还为基于MRI的AD分类提供了更具解剖学基础的依据。

IV-D 所提模型的临床相关性

在医学影像中,过于乐观的性能估计可能会产生关于可靠性的误导性印象。从这个角度来看,所提出模型的0.7781 ROC-AUC在严格的受试者级别评估下提供了更具可信度的区分能力估计。此外,所提出模型的GradCAM图突出了与已知阿尔茨海默病相关结构变化更一致的内侧颞叶和脑室区域[7]。虽然这并未确立临床就绪性,但它为未来基于MRI的阿尔茨海默病分类工作提供了更值得信赖的基础。

V 结论

本文提出了一种在严格受试者级别评估下从原始OASIS-1 MRI体积进行阿尔茨海默病分类的多模态3D CNN。通过将结构T1图像与灰质、白质和脑脊液概率图集成,所提出的方法为基于MRI的分析提供了更体积化和解剖学基础的框架。GradCAM可视化进一步表明,该模型关注临床上相关的脑区。支持性切片实验还强调了数据表示和评估协议可能影响报告结果。尽管该研究受到标记队列相对较小、二元问题表述和轻量级架构的限制,但它为基于3D MRI的阿尔茨海默病分类未来工作提供了一个可重复的基础。

参考文献

  • [1] F. Ahmed (2025-12) Colormap-enhanced vision transformers for MRI-based multiclass Alzheimer's disease classification. Note: arXiv preprint arXiv:2512.16964
  • [2] F. Ahmed (2026) Hybrid topological and deep feature fusion for accurate MRI-based Alzheimer's disease severity classification. Note: arXiv preprint arXiv:2602.00956
  • [3] H. Almalki, A. O. Khadidos, N. Alhebaishi, and E. M. Senan (2025) Early detection of Alzheimer's disease progression stages using hybrid of CNN and transformer encoder models. Scientific Reports 15, pp. 16799.
  • [4] T. Baltrušaitis, C. Ahuja, and L. Morency (2019) Multimodal machine learning: a survey and taxonomy. IEEE Transactions on Pattern Analysis and Machine Intelligence 41 (2), pp. 423–443.
  • [5] A. Dag et al. (2025-03) ADNet: a CNN model for Alzheimer's disease diagnosis on OASIS-1 dataset. Karamanoglu Mehmetbey University Journal of Engineering and Natural Sciences.
  • [6] N. J. Dhinagar et al. (2021) 3D CNNs for classification of Alzheimer's and Parkinson's disease with T1-weighted brain MRI. In Proc. SPIE Medical Information Processing and Analysis, Vol. 12088, pp. 120880W.
  • [7] C. R. Jack et al. (2018) NIA-AA research framework: toward a biological definition of Alzheimer's disease. Alzheimer's & Dementia 14 (4), pp. 535–562.
  • [8] Z. Kong et al. (2022) Multi-modal data Alzheimer's disease detection based on 3D convolution. Biomedical Signal Processing and Control 75, pp. 103293.
  • [9] M. Lin, Q. Chen, and S. Yan (2014) Network in network. In Proc. International Conference on Learning Representations (ICLR)
  • [10] D. S. Marcus et al. (2007) Open access series of imaging studies (OASIS): cross-sectional MRI data in young, middle aged, nondemented, and demented older adults. Journal of Cognitive Neuroscience 19 (9), pp. 1498–1507.
  • [11] E. Olivetti et al. (2021) Effect of data leakage in brain MRI classification using 2D convolutional neural networks. Scientific Reports 11, pp. 22544.
  • [12] D. J. Rumala (2023) How you split matters: data leakage and subject characteristics studies in longitudinal brain MRI analysis. Note: arXiv preprint arXiv:2309.00350; MICCAI FAIMI 2023
  • [13] R. R. Selvaraju et al. (2017) Grad-CAM: visual explanations from deep networks via gradient-based localization. In Proc. IEEE International Conference on Computer Vision (ICCV), pp. 618–626.
  • [14] S. M. Smith et al. (2004) Advances in functional and structural MR image analysis and implementation as FSL. NeuroImage 23, pp. S208–S219.
  • [15] N. Srivastava et al. (2014) Dropout: a simple way to prevent neural networks from overfitting. Journal of Machine Learning Research 15, pp. 1929–1958.
  • [16] A. B. Tufail et al. (2020) Binary classification of Alzheimer's disease using sMRI imaging modality and deep learning. Journal of Digital Imaging. Note: PMC7573078
  • [17] N. J. Tustison et al. (2010) N4ITK: improved N3 bias correction. IEEE Transactions on Medical Imaging 29 (6), pp. 1310–1320.
  • [18] I. Ullah et al. (2025) Hybrid deep learning architecture with adaptive feature fusion for multi-stage Alzheimer's disease classification. Brain Sciences 15 (6), pp. 612.
  • [19] World Health Organization (2023-03) Dementia. Note: WHO Fact Sheet
  • [20] E. Yagis et al. (2021) Effect of data leakage in brain MRI classification using 2D convolutional neural networks. Scientific Reports 11. Note: PMC8604922
  • [21] T. Yousaf et al. (2024) A multimodal vision transformer for interpretable fusion of functional and structural neuroimaging data. Human Brain Mapping 45 (17).
  • [22] X. Zhang et al. (2025) Classification of the stages of Alzheimer's disease based on three-dimensional lightweight neural networks. PeerJ Computer Science 11, pp. e2897.
  • [23] Y. Zhang et al. (2001) Segmentation of brain MR images through a hidden Markov random field model and the expectation-maximization algorithm. IEEE Transactions on Medical Imaging 20 (1), pp. 45–57.

【全文结束】