生成式人工智能(AI)现已能制作出高度逼真的X光图像,经验丰富的放射科医生也无法将其与真实扫描区分开来。发表在《放射学》杂志上的一项研究报告指出,无论是临床医生还是多模态AI模型都无法可靠识别这些深度伪造影像。研究人员警告,这可能导致诊断错误和临床数据被恶意篡改,并呼吁在放射学中采用新的AI使用方法。
生成式AI是指能够创建原创内容的人工智能,包括文本、图像、音乐和视频。它基于大型数据集学习模式以生成新内容。知名例子包括ChatGPT等聊天机器人和DALL-E等图像生成器。
生成式AI的快速发展已改变了医学影像领域。多模态模型现在仅凭文本描述就能生成放射影像,无需编程专业知识。研究人员报告称,这些图像在解剖学上看似合理、具有诊断价值,且在视觉上与真实扫描无法区分。
检测局限性
该研究包括来自六个国家的17名放射科医生,他们评估了264张X光图像,其中一半为真实图像,一半为AI生成图像。研究使用ChatGPT生成这些AI图像。
在初步评估中,参与者并不知道数据集中包含AI生成的放射深度伪造图像。仅有41%的深度伪造图像被正确识别。在明确告知参与者部分图像为AI生成后,检测率上升至约75%。临床经验和放射学专业知识并未显著提高检测准确性。
多模态AI系统也存在类似局限。所有评估的模型均未能识别全部深度伪造图像。即使是生成这些图像的生成式AI模型,也未能一致地识别自己生成的放射影像。
"我们的研究表明,这些深度伪造X光片足够逼真,能够欺骗放射科医生——即使他们知道数据集中包含AI生成的图像,"纽约西奈山医学院生物医学工程与影像研究所的首席作者米凯尔·托尔德曼博士表示。这创造了"高风险漏洞",特别是当"伪造的骨折可能与真实骨折无法区分"时。
细微线索
尽管深度伪造放射影像非常逼真,但显示出重复出现的异常。这些包括异常的对称性、过于平滑的骨表面、均匀的噪声模式以及不自然的软组织纹理。
托尔德曼表示:"深度伪造医疗影像往往看起来过于完美。骨骼过于平滑,脊柱异常笔直,肺部过度对称,血管模式过于均匀,骨折看起来异常干净一致,通常仅限于骨骼的一侧。"这些特征可作为诊断警示信号。
安全风险
医学影像中的深度伪造引发了严重关切,因为它们可能在临床、法律和研究环境中被滥用。作者概述了几种可能被恶意利用的场景。
由于AI模型现在无需专业知识即可生成医学图像,入门门槛已显著降低。这增加了针对传统网络攻击之外的定向伪造风险。
因此,研究人员提出了一种多层次方法,包括临床医生教育、自动化深度伪造检测系统、强制水印技术和严格的数据集治理,以防止这一新兴能力演变为系统性威胁。训练数据集还应包含深度伪造示例,以便在必要时提醒放射科医生。
结论:转折点
作者认为,这项研究标志着放射诊断的一个转折点。AI生成的深度伪造放射影像现已如此逼真,能够欺骗人类专家和AI系统。《放射学》杂志的同期社论《欺骗的民主化:眼见不再为实》反映了同样的担忧。
这将医生的挑战从图像解释转向真实性验证。如果没有技术保障、培训和明确标准,生成式模型的日益普及可能会逐渐削弱人们对放射影像的信任,并导致潜在危险的情况。
本报道译自Medscape德语版。
【全文结束】

