贝克曼先进科学与技术研究所的Mark Anastasio(右)与Sourya Sengupta团队开发的新型人工智能模型,不仅能精准识别医学影像中的肿瘤和疾病,更能通过绘制可视化图谱解释诊断依据,辅助医生验证准确性并向患者解释诊断结果。版权归属:Jenna Kurtzweil,贝克曼研究所传播办公室
贝克曼研究所研究人员开发的人工智能模型,可被赋予"医学诊断专家、医生助手、医疗绘图员"等多重身份。该模型通过生成可视化诊断图谱,显著提升医学影像分析的透明度——医生可追溯其诊断逻辑,交叉验证结果准确性,并向患者清晰解释诊断依据。
"我们的目标是帮助早期发现癌症等疾病,就像地图上的标记'X'一样直观展现决策过程。"该研究首席作者、贝克曼研究所研究生Sourya Sengupta表示,"这种模型将简化医生与患者双方的诊疗流程。"
相关研究成果发表于《IEEE医学成像汇刊》。
人工智能的"洋葱哲学"
1950年代概念雏形的AI技术,随着ChatGPT等工具普及已进入千家万户。机器学习作为AI的"驾驶培训",在监督环境下训练决策能力;而深度学习作为其"资深表亲",凭借模拟人脑的深度神经网络处理复杂任务。
以猫狗图像识别为例:神经网络通过分析数万张图片,学习尺寸、毛色等特征。但正如过度自信的幼童——可能因见过棕色四足犬就将所有同类动物归类为狗。"深度神经网络虽强大,却无法像孩童般解释判断依据。"Sengupta指出。
突破"黑箱困境"
深度神经网络虽高效,却面临类似高中微积分学生的根本难题:无法展示解题过程。在发达国家的医疗场景中,这种"黑箱问题"尚属技术缺陷;但当涉及乳腺X光等生命攸关的医学影像时,缺乏可解释性就成为重大隐患。
"在医生短缺的地区,AI可作为辅助筛查工具,"Sengupta强调,"但面对患者'为何标记为异常'的质询时,传统AI往往无法提供令人信服的解释。"研究团队比喻道:"这就像试图通过玻璃杯贴耳听清密室对话——直到我们设计出会自我解释的新模型。"
"等效图谱"的革命性突破
Sengupta团队开发的AI模型在传统诊断数值(0-1区间)基础上,生成名为"等效图谱(E-map)"的可视化解释。每个图谱区域标注数值权重,医生可直观追溯关键病灶区域的诊断贡献度。
"假设总值为1的诊断中,三块区域分别贡献0.5、0.3、0.2,医生就能针对性复核高权重区域。"Sengupta举例说明,"这种机制就像教师检查学生的解题步骤,既确保AI可靠性,也增强医患沟通透明度。"
临床验证与跨模态应用
研究团队在三个医学领域验证了模型效能:
- 模拟乳腺X光:77.8%准确率检测早期肿瘤
- 视网膜OCT:99.1%准确率识别老年黄斑变性早期征兆(玻璃膜疣)
- 胸部X光:83%准确率检测心脏扩大症
与传统黑箱模型对比显示,新型可解释模型在保持同等准确率的同时,显著提升诊断可追溯性。其非线性神经网络架构灵感源自线性模型的可解释性,正如研究负责人Mark Anastasio教授所言:"我们从简单模型中提炼理念,破解了复杂深度网络的解释难题。"
未来医疗的透明化展望
研究团队期待该技术拓展至全身疾病诊断,并实现病灶差异化识别。Anastasio展望:"这项技术不仅能提升疾病诊断精准度,更重要的是构建医生与患者间的信任桥梁,这正是医疗AI发展的核心价值。"
【全文结束】