由缅因大学两名博士生领导的研究团队开发出一种人工智能(AI)系统,该系统可简化医生识别乳腺癌组织样本征兆的流程,加速诊断过程,有望避免延误并挽救生命。
该系统命名为"上下文引导分割网络"(Context-Guided Segmentation Network, CGS-Net),通过模拟人类病理学家研究癌组织的方式提升数字癌症诊断的准确性。电气与计算机工程专业博士生杰里米·朱巴里(Jeremy Juybari)和生物医学工程专业博士生乔什·汉密尔顿(Josh Hamilton)主导开发了该工具,其引入的深度学习架构能够比传统AI模型更精确地解读组织显微图像。
乳腺癌是女性癌症相关死亡的第二大原因,终身患病率达八分之一。目前诊断仍依赖对化学染色组织样本的显微镜检查,这一过程既需要专业知识又耗时费力。
全球三分之二的病理医生集中在仅10个国家,导致许多地区因诊断延迟造成可预防的死亡。例如在印度,约70%的癌症死亡与可治疗风险因素相关,而及时诊断渠道有限进一步加剧了这一问题。
"该模型整合局部组织细节区域与更广泛的上下文区域,提升组织切片中癌症预测的准确性,"朱巴里表示,"通过引入独特的训练算法和创新初始化策略,本研究证明纳入周围组织上下文可显著增强模型性能。这些发现强化了整体图像分析在医疗AI应用中的重要性。"
朱巴里和汉密尔顿在《科学报告》(Scientific Reports)发表的论文中描述了这项工作,共同作者包括教职员研究员安德烈·哈利勒(Andre Khalil)、朱一峰(Yifeng Zhu)和陈超凡(Chaofan Chen)。该研究的全部数据集和源代码均已公开,确保科学界的透明度与协作。
双编码器系统的工作原理
该系统核心是一种双编码器模型,其运作方式模拟病理学家检查玻片的工作流程。传统上,病理学家通过自主放大缩小图像来收集数据,而CGS-Net可同时完成此过程:网络的一个分支处理高分辨率图像块以捕捉细胞级细节,另一分支则检查包含周围组织的低分辨率图像块——这种宏观架构背景有助于专家区分正常与恶性结构。
每个图像块共享相同的中心像素,确保组织的双重视图精准对齐。二者共同输入由互联编码器和解码器组成的系统,该系统利用高低分辨率图像数据进行完整分析。
为测试系统性能,缅因大学研究团队训练CGS-Net分析383份数字化淋巴结组织全切片图像,识别显示乳腺癌征兆的样本,并训练其区分健康与癌变组织的能力。该工具在测试中持续优于传统单输入模型。
"我们的模型CGS-Net通过双编码器同时检查不同放大倍率的双重视图,成功模拟了病理学家观察组织学样本的方式,"研究人员在论文中写道。
未来应用与广泛影响
尽管当前研究聚焦于二元癌症分割,团队预见其扩展潜力巨大。后续研究计划纳入更多分辨率层级,将系统应用于多类别组织分割,并验证其在其他癌症类型中的适应性。该架构还可整合放射学扫描或分子谱型等多模态数据,这些数据已知可进一步提升诊断准确性。
在技术层面之外,该项目彰显了缅因大学研究生态系统的跨学科优势,通过融合工程学、计算机科学与生物医学科学应对全球健康差异。
随着癌症诊断日益数字化,CGS-Net等工具旨在增强而非取代人类专业能力。通过教导机器以医生视角观察,缅因大学研究人员正助力构建一个早期精准检测惠及全球的未来。
【全文结束】


