2024年8月9日
想象一个世界:诊断和治疗比以往任何时候都更精准且个性化,救命决策能在数毫秒内完成,复杂医疗数据被转化为有意义的洞察。这一愿景正通过人工智能(AI)在医疗技术中的整合成为现实。AI具有彻底革新医疗保健并改善数百万生命的潜力——但前提是确保其安全可靠。
基于AI的医疗设备安全至关重要。从疾病早期检测、个性化医疗到行政任务自动化,AI的应用潜力几乎无限。然而这些可能性也伴随着重大责任。AI必须满足严格的监管要求,以确保对患者和使用者均有效且安全。
何为人工智能?所有算法都属于AI吗?
欧盟人工智能法案第3(1)条对AI系统定义如下:
"(1)'AI系统'指基于机器的系统,设计为在不同程度自主性下运行,部署后可能具有适应性,且为明确或隐含的目标,能从输入信息中推导如何生成输出(如预测、内容、推荐或决策),从而影响物理或虚拟环境。"
通过分解这一定义可提炼出关键要素:
- 系统需具备独立工作能力
- 上市后可适应(非必须,"may"表明选择性)
- 能从接收信息中衍生结果生成逻辑
- 结果可影响物理环境(如控制设备)或数字环境(如软件调整)
简言之,AI系统是能独立决策或创造内容的计算机系统,其核心特征是从数据中衍生新内容而非遵循简单条件判断(if-else)。例如心律除颤器中基于参数比对的电击算法即不属于AI,因其不具备自主决策能力。
欧盟与美国监管要求概览
欧盟监管框架
欧盟AI法案将AI应用分为三类风险等级:
- 不可接受风险(如国家社会评分系统)——禁止
- 高风险应用(如申请人筛选工具)——特殊法律要求
- 非禁止且未分类为高风险——基本不受监管
根据法案第6条,医疗设备AI系统若满足以下两条件即被归类为高风险:
- AI系统是受《欧盟协调立法》附件I涵盖产品的安全组件,或本身作为此类产品
- 该产品或AI系统需经第三方合规评估方可上市
附件I明确将《医疗器械条例》(MDR 2017/745)和《体外诊断医疗器械条例》(IVDR 2017/746)列为协调立法。欧盟委员会将于2026年2月2日前发布高风险AI系统应用案例指南。
欧洲监管补充标准包括:
- ISO 14971在AI医疗机器学习中的应用(ISO/IEC 34971:2023):聚焦AI医疗设备风险管理,特别针对临床经验不足导致的潜在风险。
- DIN SPEC 13288 医学深度学习图像识别系统开发指南:强调训练数据的代表性、罕见医学图像类别处理及结果可解释性。
- BS 30440:2023 医疗AI验证框架:覆盖AI系统全生命周期(开发、验证、维护、市场监测),提出各阶段具体评估标准。
美国FDA监管体系
FDA自2019年起推进AI医疗设备监管改革,核心文件包括:
- 2019年《AI/ML医疗器械软件修改监管框架》:建立全生命周期管理(TPLC)模型,要求覆盖从开发到持续改进的全过程。
- 上市前安全有效性保障:
- SaMD预规范(SPS):定义初始性能规格外的"潜在变更区域"
- 算法变更协议(ACP):建立风险控制下的持续改进机制
- 质量体系与良好机器学习实践(GMLP)
- 透明度与真实世界性能监测
- 2021年《AI/ML医疗器械软件行动计划》:细化SPS/ACP指引,推动GMLP标准化,开展AI偏倚与稳健性研究。
- 2021年《医疗器械开发良好机器学习实践原则》:提出10项核心准则,包括跨学科协作、数据代表性、模型性能监测等。
2023-2024年FDA进一步发布预定变更控制计划指南(4月草案)和透明度原则文件(6月),持续完善动态监管机制。
挑战与未来趋势
欧美监管对比显示:美国在具体方法论上更成熟,而欧盟通过AI法案奠定基础,但尚需细化医疗技术细则。当前挑战包括:
- 欧洲公告机构对AI医疗设备符合性评估标准不统一
- 适用标准(如ISO 13485)多针对非AI设备,新AI标准制定滞后
- 制造商需持续跟踪快速演进的标准体系(如BS 30440、DIN SPEC 13288)
未来监管将聚焦:
- 动态风险评估框架(FDA的TPLC模型)
- 预定变更控制计划的标准化实施
- 基于真实世界数据的持续监测体系
人工智能医疗设备的突破性创新正重塑医疗保健格局,但唯有通过严格的安全管理与科学的监管策略,方能将技术潜力转化为可持续的患者获益。
【全文结束】