2021年底,38岁的Erin Ralph躺在手术台上,期待通过微创球囊扩张术结束多年的慢性鼻窦炎困扰。她没想到,这场“常规手术”会彻底改变她的人生——医生依赖的TruDi导航系统AI功能,错误引导器械接近供应大脑的颈动脉,导致她中风,不得不移除部分颅骨缓解脑肿胀。“我现在还得靠支架走路,左臂几乎抬不起来。”术后一年,Erin在中风患者博客中写下这句话,而她的遭遇,只是AI医疗设备安全危机的冰山一角。
当AI进了手术室:那些被导航系统“带偏”的手术
TruDi导航系统原本是辅助鼻窦手术的“精准工具”:它通过机器学习算法分析患者术前CT影像,实时反馈器械位置,其AI功能TruPath甚至声称能规划“两点间最短有效路径”。但2021年AI功能上线后,这款设备成了“潜在危险源”——FDA收到的故障报告从7起激增至100多起,2021-2025年至少10名患者因定位错误受伤:有的脑脊液泄漏,有的颅底被穿破,有的像Erin一样中风。
最令人震惊的是Donna Fernihough的案例:2023年5月,医生用TruDi进行手术时,AI错误引导器械刺破她的颈动脉,血液喷溅到一旁的Acclarent代表身上,她当天就中风了。而这一切,早有“预警”——Acclarent的顾问医生曾警告,系统准确性仅80%,但公司仍选择上市。
不止TruDi,其他AI医疗设备也频现问题:
- 美敦力的AI心脏监测仪被报告16次未能识别异常心律,虽未致伤,但暴露出算法“漏判”风险;
- 三星Sonio Detect超声软件的AI算法曾错误标记胎儿结构,将“手臂”识别成“腿部”,虽未造成伤害,却让医生对AI结果产生怀疑。
AI医疗的“监管缺口”:为什么“获批”的设备还会害人?
这些事故的根源,藏在监管框架的“漏洞”里。FDA的数据显示,2021-2025年,60种AI医疗设备关联182起召回,是普通设备召回率的两倍——而这背后,是监管能力的“跟不上”。
首先是监管资源的缺失:特朗普政府时期,FDA负责AI审查的核心部门——影像、诊断和软件可靠性部(DIDSR)裁员15人,数字健康卓越中心流失10名员工,导致审查员工作量翻倍。“一些高级监管者根本不懂AI技术,只能依赖企业自证安全。”一位前FDA员工说。
其次是审批规则的“宽松”:AI设备只需证明与已有设备“实质等同”(即功能类似),无需人体试验。比如TruDi的AI升级,就是靠“和旧版本导航系统原理一致”获得批准,从未做过独立临床验证。华盛顿大学专家Alexander Everhart指出:“现有框架无法评估AI的‘动态学习’能力——算法会随数据更新变化,今天安全不代表明天安全。”
更关键的是技术本身的“缺陷”:AI的核心是“数据训练”,如果训练数据覆盖不全(比如TruDi没纳入复杂鼻窦解剖变异)、存在偏差(比如只用了青壮年数据),就会“误判”。而生成式AI的“幻觉”问题更危险——聊天机器人可能编造“某药能治癌症”的虚假信息,误导患者。
最后是利益的“驱动”:Acclarent前总裁Jeff Hopkins承认,公司将AI作为“营销工具”,即使顾问医生警告系统准确性不足,仍匆忙上市。而推广TruDi的顾问医生Marc Dean,仅2014-2024年就拿到55万美元咨询费——利益冲突让“安全”成了“次要选项”。
AI不是医疗“万能药”:你该懂的技术逻辑与安全指南
AI不是“魔法”,它只是“工具”——要用好它,得先懂它的“逻辑”。
先搞懂AI医疗的“技术类型”:
- 机器学习:通过大量数据训练识别模式(比如TruDi分析患者鼻窦解剖结构,规划手术路径);
- 深度学习:用神经网络处理复杂数据(比如影像科AI识别肺癌结节)。 两者的核心都是“数据依赖”——数据越全面、越准确,结果越可靠。
当Erin移除颅骨的伤口慢慢愈合时,AI医疗的“成长痛”还在继续。这场危机不是“AI的错”,而是“我们没管好AI”——当技术创新的速度超过监管能力,当企业的“逐利”盖过“患者安全”,受伤的永远是最弱势的人。未来,我们需要的不是“禁止AI”,而是“规范AI”:像欧盟MDR法规那样,要求AI设备提供“算法验证文档”;像药品审批那样,强制做独立临床试验;像食品监管那样,公开患者伤害报告。毕竟,医疗的本质从来不是“用最先进的技术”,而是“用最安全的方式,治好患者”。
Erin的故事,应该成为AI医疗的“警示”,而不是“常态”。

