生成式人工智能的快速发展伴随着频繁的技术错误,这些被称为"幻觉"的现象可能导致虚假信息的产生。这种技术缺陷已显著阻碍AI在医疗等关键领域的应用。谷歌2024年5月在arXiv平台发布的Med-Gemini医疗AI模型研究论文中,就出现了持续近一年未被发现的严重错误,暴露出过度依赖AI技术的潜在风险。
Med-Gemini医疗AI模型
根据谷歌研究博客披露的信息,这款基于Gemini模型开发的医疗专用AI系统,通过整合脱敏医疗数据实现了多模态信息处理能力。其技术突破体现在能够同时解析文本、医学影像、视频及电子健康记录(EHR),支持包括放射科报告生成和患者数据分析在内的多项医疗流程。
莫须有的脑区
该模型在案例分析中错误识别出"左侧基底动脉神经节梗死"——这个在人体解剖学中根本不存在的术语。神经病学专家布赖恩·摩尔指出,该错误源于AI系统将基底神经节(basal ganglia)与基底动脉(basilar artery)两个不同概念混淆。尽管谷歌在后续更新中修正了博客内容,但研究论文中的原始错误仍被保留。
这种技术缺陷可能带来严重后果:在医疗场景中,术语混淆可能导致误诊;而在公众健康信息检索场景中,则可能引发误导性认知。虽然本次错误未造成实际医疗事故,但医学界普遍认为这为AI医疗应用敲响了警钟。
技术修正与争议
"两个字母之差却是天壤之别",普罗维登斯医疗信息官莫林·沙阿强调。谷歌在技术说明中解释,这种错误源于训练数据中"basal"的常见误写"basilar"。尽管官方辩称"报告含义未变",但医疗行业对AI系统在专业术语精确度要求上的质疑持续发酵。
行业普遍困境
Med-Gemini并非唯一出现问题的医疗AI模型。谷歌开发的更高级模型MedGemma同样存在输出不稳定现象,如同一问题不同表述导致结论矛盾。埃默里大学医学信息学专家朱迪·吉乔亚指出:"这类系统倾向于编造答案且不承认知识局限,这在医疗领域可能造成致命后果。"
当前AI医疗应用正加速推进:谷歌已启动AI健康顾问服务,推出"AI联合科学家"系统辅助药物研发。但行业专家呼吁建立更严格的技术验证框架,要求AI系统的容错率必须远超人类标准。正如沙阿所言:"在生命攸关的医疗领域,'与人类相当'的技术水平显然不够。"
【全文结束】


