在2026年欧洲放射学大会(ECR)上,"伦理AI的艺术:重新定义放射学中的性能"专题讨论会汇集了多位专家,他们指出放射学中的伦理AI不能仅以准确性来评判。该会议由德国弗莱堡大学(University of Freiburg)弗莱堡的Elmar Kotter主持,探讨了法规、上市后监管以及人为因素如何重塑临床实践中"良好性能"的定义。在各场演讲中,一个明确的信息脱颖而出:只有将技术性能、治理和实际工作流程综合考虑,AI实施才能真正发挥作用。
从原则到实践:欧盟AI法案对放射学的意义
Hugh Harvey,伦敦Hardian Health公司专家,强调2024年出台的欧盟AI法案已不再是未来的政策问题,而是正在塑造放射学中AI开发和部署的框架。Harvey指出,该法案将责任分配到AI生命周期的每个环节,从开发到实际应用。
风险管理是核心组成部分。根据第九条,高风险AI系统必须建立、实施、记录并维护风险管理系统。实际上,这要求开发人员在其质量管理系统中嵌入结构化流程,包括在真实环境中评估性能,以及为数据保护、网络安全和不良事件报告提供保障措施。
透明度是另一关键支柱。第十三条要求开发人员和分销商向部署者提供清晰全面的信息,包括使用说明、人工监督措施、性能特征、技术能力和维护要求。对于放射科部门而言,这确保了AI工具不会被视为"黑箱",而是其局限性和操作要求必须在临床环境中得到理解的系统。
Harvey特别强调,责任不仅在于供应商。第二十六条规定了部署者的义务,意味着医院也必须积极确保安全和适当使用。这包括指派经过适当培训的人工监督、根据使用说明监测系统性能、保留系统日志,以及向制造商和监管机构报告任何安全问题。
他还提到了目前正在努力完善该法案在实践中的实施方式。2025年11月提出的"数字一揽子计划"是一系列有针对性的修正案,旨在解决对该法案的批评,并使其要求对行业和医疗服务提供者更具可操作性。拟议的变更之一是AI素养责任的转移,不再直接要求提供商和部署者提供培训,而是将重点更多地放在欧洲委员会和成员国提供的指导和支持上。
与此同时,第五十七条在国家层面引入了监管沙箱,预计到2028年将出现欧盟范围的沙箱。综合来看,这些发展表明,尽管监管框架已经到位,但其实际应用仍在演变中,越来越注重在临床AI中平衡监督、可用性和创新。
监管不应止步于部署
虽然法规设定了框架,但荷兰乌得勒支Romion Health & Health AI Register的Kicky Gerhilde Van Leeuwen强调,上市后监管决定了AI一旦进入临床实践后是否仍能保持安全。她的演讲聚焦于一个基本但常被忽视的问题:当AI工具在动态变化的医疗系统中大规模应用时,临床医生如何确保其长期安全性?
Van Leeuwen指出,许多医院在使用前仍会在本地数据集上验证AI。例如,在荷兰,70家医院中有20多家拥有骨折检测工具,每家都先在本地测试性能。虽然可以理解,但她质疑这种方法是否可持续。临床医生不会在每个医院人群中例行重新测试一种已批准的药物或新的CT扫描仪,那么为什么AI要区别对待?
她认为部分原因在于AI对变化具有独特的敏感性。成像硬件变化、后处理变化、算法更新,以及患者群体随时间推移的变化,都意味着评估不能是一次性事件。相反,她描述了一个连续过程:从回顾性分析现有证据开始,经过本地工作流程中的验收测试和试点,然后继续进行部署后监测。鉴于商业工具的证据基础仍不均衡,这种需求尤为紧迫。
Van Leeuwen还强调了一个惊人的监管漏洞:2023/2024年荷兰健康与青年护理监察局访问的13家制造商中,没有一家符合上市后监管要求。在她看来,客户调查不能替代结构化监测。关键是要在多个领域进行测量:技术指标(如正常运行时间和延迟)、临床指标(如性能漂移和诊断性能)以及影响指标(如用户体验和效率)。正如她所说:"如果我们希望在变化是唯一不变的世界中确保AI的长期安全,我们需要部署后监测。"
当AI改变系统时,人们最先感受到影响
英国伦敦大学学院的Susan Cheng Shelmerdine将讨论明确带入了人类领域,探讨了放射学在未考虑工作流程、员工体验和患者期望的情况下采用AI时会发生什么。她以AI支持的肺癌分诊为例,展示了该技术最初似乎非常成功。实施后,从异常胸部X光片到CT扫描符合国家72小时目标的患者比例从19.2%提高到46.5%,当天CT检查率从4.0%上升到22.1%,X光片到CT的平均时间从6天缩短到3.6天。
然而,这种表面上的成功并不能保证可持续性。Shelmerdine解释说,该路径在2025年被撤回,这说明了实施科学的一个核心教训:添加AI改变了整个系统,而不仅仅是一个报告步骤。基于"患者安全系统工程倡议"(SEIPS)模型,她展示了AI如何破坏任务、人员、技术和组织流程之间的关系。早期的员工反馈反映了这种紧张关系。在部署前,人们谨慎乐观,但对技能退化、工作保障和患者受益存在不确定性。部署一个月后,反馈大多转为负面,集中在工作流程中断、延误、假阳性结果和沮丧的患者上。到8个月时,观点变得更加平衡,员工认可了当天CT和患者护理的好处,但仍呼吁改进沟通和路径设计。
Shelmerdine认为,这种演变反映了"想象中的工作"与"实际执行的工作"之间的差距。这种差距不应自动被视为失败,而是表明系统在现实世界约束下表现不同。她将其与之前描述的周期联系起来:过度投资、蜜月期、撤资,最终再投资,这通常是医疗保健与AI关系的特征。
她的演讲还讨论了信任问题。临床医生可能过度信任、不信任或适当校准对自动化的依赖,这些模式可能直接影响性能。她引用了最近的证据表明,即使专家看到有关自身表现和AI系统优缺点的详细反馈,这也不一定会显著改善AI支持的使用。对Shelmerdine而言,教训不是放弃AI,而是负责任的实施还必须包括负责任的撤回:与利益相关者进行清晰沟通、在部署期间保持人类技能,以及在采用前制定退出策略。
结论
总体而言,该讨论会表明,放射学中的伦理AI与其说是一个工具在原则上是否有效的问题,不如说是在实践中能否继续安全、透明和可接受地发挥作用的问题。法规可能定义了义务,但上市后监管和对人为因素的关注决定了这些义务是否能转化为更好的护理。随着放射学进一步进入AI支持的实践,成功可能越来越多地不在于采用更多系统,而在于建立临床医生、患者和监管机构能够切实接受的系统。
【全文结束】

