人工智能可生成欺骗医生与AI系统的假X光片AI-ul poate genera radiografii false care să-i păcălească deopotrivă pe medici dar și pe AI - Ziarul de Iaşi - liderul presei ieşene

环球医讯 / AI与医疗健康来源:www.ziaruldeiasi.ro罗马尼亚 - 罗马尼亚语2026-04-21 17:31:32 - 阅读时长2分钟 - 771字
纽约西奈山医学院最新研究证实,人工智能生成的假X光片已能同时欺骗经验丰富的放射科医生和AI诊断系统。在17国12家医院的测试中,当医生不知情时仅有41%能识别AI生成影像,即使被告知后准确率仅提升至75%。研究警示此类技术存在重大医疗欺诈风险,伪造骨折影像可能难以与真实病例区分,更存在黑客篡改医院影像系统操纵诊断的网络安全威胁。四大主流AI模型检测假影像的准确率仅57%-85%,其中ChatGPT-4o虽表现最佳仍无法完全识别自身生成的深度伪造内容,专家呼吁亟需建立医疗影像检测工具和专业教育数据集以应对这一新型医疗安全挑战。
AI生成假X光片放射科医生AI诊断系统医疗欺诈误诊医疗网络安全风险医学影像检测工具
人工智能可生成欺骗医生与AI系统的假X光片

由人工智能创建的虚假放射影像,其逼真程度足以模仿真实患者的医学影像,不仅能欺骗经验丰富的放射科医生,甚至能骗过人工智能诊断系统本身。据周三路透社报道并由Agerpres转引的研究显示,这项技术存在被恶意操纵和引发误诊的重大风险。

纽约西奈山医学院的米克尔·托德曼博士领导的研究团队,组织12家医院来自6个国家的17名放射科医生,对264张X光片进行分析,其中半数由ChatGPT或RoentGen等人工智能工具生成。

当放射科医生未被告知研究真实目的时,仅有41%能自发识别出人工智能生成的影像。根据发表在《放射学》期刊的报告,当医生获知数据集包含合成影像后,区分真实X光片与合成影像的平均准确率提升至75%。

"存在足够逼真的假X光片能欺骗放射科医生这一事实,为医疗欺诈诉讼埋下高风险隐患——例如伪造的骨折影像可能与真实病例无法区分。"纽约西奈山医学院米克尔·托德曼博士在声明中指出,"更存在重大网络安全风险:若黑客入侵医院网络植入合成影像,可能操纵患者诊断结果,甚至通过破坏电子病历的根本可靠性引发大规模临床混乱。"

研究显示,四种大型语言模型——OpenAI的GPT-4o、OpenAI的GPT-5、谷歌的Gemini 2.5 Pro和Meta Platforms的Llama 4 Maverick——在检测假影像方面的准确率介于57%至85%之间。

值得注意的是,即使生成深度伪造内容的ChatGPT-4o模型,也未能完全识别所有假影像。研究人员指出,该模型虽比其他大型语言模型识别率更高,但仍存在漏检情况。

"关于可能出现的假CT扫描和MRI影像,我们可能仅看到冰山一角。"托德曼博士强调,"当前建立专业教育数据集和检测工具至关重要。"

【全文结束】