AI正在革新医疗保健,但它无法取代你的医生
Murali Doraiswamy
2025年9月10日
6分钟阅读
版权 - the_burtons 2021—Getty Images
下次当你进行血液检测、X光检查、乳腺X光摄影或结肠镜检查时,很可能在医生查看结果之前,人工智能(AI)算法就会率先解读结果。
短短几年间,AI已迅速渗透全球医院和诊所。美国食品药品监督管理局(FDA)已批准使用超过1000种医疗相关AI工具,而根据美国医学会最近的一项调查,超过三分之二的医生表示他们在一定程度上使用AI。这种潜力是前所未有的:AI特别是具备自主推理、适应和行动能力的AI代理,可以通过起草病历记录和图表摘要来减轻医生的工作负担,通过更精准的疗法支持个性化医疗,还能在影像和病理切片中发现人眼可能遗漏的细微异常。它可以通过新流程加速药物和药物靶点的发现,例如促成去年诺贝尔化学奖的AI驱动蛋白质结构预测与设计技术。AI还能通过安排预约、解答疑问和标记副作用为患者提供更快速、个性化的支持。它可以帮助匹配临床试验人选,并实时监测健康数据,在并发症发生前向临床医生和患者发出预警以改善治疗结果。
但只有负责任地构建和使用AI,才能实现其医疗潜力。
当今的AI算法虽能识别模式、预测甚至做决策,但它们并非万能的神谕,也远未达到所谓通用人工智能支持者声称的接近人类智能的程度。近期几项研究既展现了可能性也揭示了风险,指出医疗AI工具可能误诊患者,医生过度依赖AI反而会削弱自身技能。
杜克大学(Duke University)的一个团队(包括作者之一)测试了某款FDA认证的AI工具——该工具旨在检测阿尔茨海默病患者脑部核磁共振中的肿胀和微出血。这款工具提升了专家放射科医生发现核磁共振细微异常的能力,但也产生了误报,经常将无害的模糊影像误判为危险信号。我们得出结论:该工具虽有帮助,但放射科医生应首先仔细阅读核磁共振影像,再将AI作为第二意见——而不是相反。
此类发现并非个例。很少有医院会独立评估使用的AI工具,许多机构错误地认为只要通过FDA认证就能在本地环境正常运作。实际上,AI工具在不同患者群体中的表现存在差异,各自都有独特弱点。这正是卫生系统在实施任何AI工具前必须进行尽职调查和质量检查的必要原因,同时需要教育临床医生。此外,AI算法和人类与其的互动方式会随时间演变,促使前FDA局长罗伯特·卡利夫(Robert Califf)呼吁对医疗AI工具进行持续的上市后监测,以确保其在现实世界中的可靠性与安全性。
另一项最新研究中,欧洲胃肠病学家在结肠镜检查中使用新的AI辅助系统,初期发现更多可能癌变的息肉,表明AI帮助发现了医生可能遗漏的区域。但当医生返回使用传统检查时,发现癌前息肉的数量反而减少。研究者认为,医生可能因过度依赖AI而降低注意力和发现能力,这种"技能退化"现象在另一项研究中得到印证:过度依赖计算机辅助工具会减少人类视线扫描外围视觉区域的倾向,本应提升医疗技能的工具反而可能削弱它。
AI若使用不当,不仅会传播错误信息,还会削弱我们核查事实的能力。这就是"谷歌地图效应":司机过度依赖导航语音后,已丧失基本的地理认知能力。今年早些时候的一项调查发现,超过600名不同年龄和教育背景的参与者使用AI工具越多,批判性思维能力越弱,这种"认知卸载"现象在临床医生使用AI时的影响才刚开始研究。
这凸显了一个核心原则:AI在医疗领域最佳应用是增强而非取代人类。医疗的未来不在于用算法取代医疗从业者,而在于设计能强化人类判断力的工具。医生必须具备判断AI错误的能力,并保留在必要时脱离AI工作的能力。实现这一目标的关键在于负责任地开发医疗AI工具。
我们需要采用"智能选择架构"(ICA)的新范式,设计引导从业者重新审视、权衡替代方案并保持主动参与的工具。这种架构要求AI系统支持而非取代判断。例如,ICA工具不会直接声明"此处存在出血",而是突出特定区域并提示"请仔细检查该区域"。这种架构增强了医疗依赖的核心技能——临床推理、批判性思维和人类判断。印度最大私营医疗集团阿波罗医院(Apollo Hospitals)最近开始使用ICA工具预防心脏病发作:相比旧版提供单一风险评分的AI,新系统提供个性化解读,帮助患者理解风险因素构成。
医疗史上曾引入诸多工具而不削弱医生技能,听诊器放大听觉却不取代耳朵,血液检测提供新诊断信息但未消除病史询问和体检的必要。我们应以同样标准要求AI——若某产品使医生变得迟钝或犹豫,那它尚未准备好投入应用,或使用方式存在错误。
对于任何新的医疗AI,我们都应追问:它使临床医生更审慎还是更草率?鼓励二次检查还是诱发形式主义?若我们坚持开发那些强化而非替代人类能力的系统,就能同时获得AI的非凡潜力与人类独有的批判性思维、同理心和现实判断力。
【全文结束】