谷歌医疗AI凭空捏造了一个并不存在的大脑结构Google's Medical AI Made Up a Brain Part That Does Not Even Exist

环球医讯 / AI与医疗健康来源:www.republicworld.com美国 - 英语2025-08-12 22:25:44 - 阅读时长2分钟 - 737字
谷歌医疗AI模型Med-Gemini在诊断报告中虚构了名为"基底动脉神经节"的不存在大脑结构。该错误源自将真实存在的"基底神经节"与"基底动脉"混淆,暴露了医疗AI系统可能产生危险误诊的风险。尽管谷歌团队包含50多位专家,但该错误仍通过了审核并在医学期刊发表,引发专家对AI医疗诊断可靠性的担忧。
医疗AI谷歌Med-Gemini虚假病症术语准确性误诊医疗事故健康威胁AI医疗伦理与审核机制
谷歌医疗AI凭空捏造了一个并不存在的大脑结构

当医疗AI试图分析患者病情时会发生什么?谷歌2024年发布的医疗AI模型Med-Gemini给出了令人震惊的答案——它自信地诊断某患者患有"旧左基底动脉神经节梗死"。这里的"basilar ganglia"(基底动脉神经节)听起来像是专业术语,但实际并不存在。这个大脑区域完全由AI捏造,其错误源于将真实的"basal ganglia"(基底神经节,控制运动与情感的重要区域)与"basilar artery"(基底动脉,脑干主要供血动脉)混淆,最终制造出一个通过审核并发表在医学期刊上的虚假病症。

神经科医生布莱恩·摩尔博士在LinkedIn上率先指出这一错误。据The Verge报道,谷歌随后悄悄修正了博文,但原始论文仍未更正。谷歌将此归咎于"拼写错误",但众多专家认为这种解释并不充分。在医疗领域,术语准确性关乎生命安全,当AI开始杜撰专业术语时,可能引发误解、误诊甚至医疗事故。健康专家警告这种行为极具危险性,即便只是两个字母的拼写错误,也可能导致严重后果。

作为下一代医疗专用模型,Med-Gemini基于Gemini大模型,通过微调处理非识别医疗数据,继承了其推理、多模态和长上下文处理能力。但其姊妹模型MedGemma也存在类似问题:同一X光片在不同提问方式下会给出矛盾诊断,有时能准确识别病症,有时却完全遗漏。

专家指出这些AI技术虽具潜力,但过度自信才是真正的威胁。当医生盲目相信AI诊断时,类似错误可能直接危及患者生命。值得关注的是,该论文的50多位作者中竟无一人发现这个基础解剖学错误,暴露出AI医疗应用的伦理与审核机制存在重大缺陷。

【全文结束】

大健康
大健康