医生震惊:AI“发明”根本不存在的大脑部位 被指“极度危险”Doctors Alarmed After 'AI' Invents a Brain Part That Doesn't Even Exist: 'Super Dangerous'

环球医讯 / AI与医疗健康来源:www.msn.com美国 - 英语2025-08-11 18:38:11 - 阅读时长2分钟 - 939字
谷歌医疗AI模型Med-Gemini在分析脑部扫描时错误编造出"基底动脉神经节"这一不存在的大脑部位,引发医学界对AI医疗应用安全性的担忧。神经学家指出该错误混淆了"基底神经节"与"基底动脉"两个不同概念,尽管谷歌解释为拼写失误,但研究论文中的错误仍未修正,暴露出AI医疗诊断在术语准确性、安全边界和监管审核方面的重大隐患。该事件凸显AI在高风险医疗场景中可能带来的误诊风险。
医疗AI谷歌Med-Gemini技术漏洞大脑部位错误知识幻觉实时纠错机制语境依赖医疗风险人类医生决策权健康隐患
医生震惊:AI“发明”根本不存在的大脑部位 被指“极度危险”

医疗AI模型的隐患浮现

谷歌研发的医疗AI模型Med-Gemini近期被曝出严重技术漏洞。这款基于Gemini模型开发的医疗专用AI系统,本应通过分析医学影像诊断多种疾病,却在演示中识别出"左侧旧基底动脉神经节梗塞"——其中"基底动脉神经节(basilar ganglia)"是人体根本不存在的解剖结构。

神经病学专家布莱恩·摩尔(Bryan Moore)指出这一致命错误,该问题源于AI系统混淆了两个关键医学概念:负责运动控制的"基底神经节(basal ganglia)"和位于脑干的"基底动脉(basilar artery)"。虽然谷歌事后在其博客文章中修正了术语,但核心研究论文至今仍保留错误表述。

两个字母引发的医学灾难

普罗维登斯医疗集团首席医疗信息官毛林·沙(Maulin Shah)严厉批评:"两个字母的拼写错误在医学领域就是生死之差"。谷歌官方回应称该错误系AI从训练数据中习得的"常见拼写变体",但这一辩解并未消除医疗界担忧。

更令人不安的是,该错误持续存在近一年未被发现。这暴露了AI医疗系统的两大致命缺陷:其一,深度学习算法存在"知识幻觉"特性,会无中生有创造看似合理实则错误的信息;其二,当前缺乏有效的实时纠错机制,即使发现错误也难以快速修正所有应用场景中的错误数据。

医疗AI系统的连环危机

这不是谷歌医疗AI的首次事故。更先进的MedGemma模型同样暴露出"语境依赖"的致命缺陷——对同一问题的不同表述会产生矛盾结论。埃默里大学放射学专家朱迪·基乔亚(Judy Gichoya)警告:"这类系统本质上会虚构答案,且不会承认知识盲区,这在医疗领域可能直接危及生命"。

当前医疗AI应用正在加速扩展,包括AI心理治疗师、放射科医生、护理助手和病历转录系统等。但这项技术暴露的风险提示:在药物研发、疾病诊断等关键环节,人类医生必须保持终极决策权。正如毛林·沙强调:"AI的容错率必须远超人类标准,我们绝不能接受'与人类相当'的医疗AI"。

【全文结束】

大健康
大健康