机遇与挑战:基于人工智能的医疗设备监管要求Regulatory requirements for AI -based medical devices

环球医讯 / AI与医疗健康来源:www.qtec-group.com德国 - 英语2025-08-13 13:10:26 - 阅读时长4分钟 - 1812字
本文系统梳理了欧盟人工智能法案与美国FDA对AI医疗设备的监管框架,涵盖高风险分类标准、生命周期管理要求及标准体系演进,对比分析了欧美监管差异,强调AI医疗设备需平衡技术创新与安全风险,指出ISO 14971应用指南、DIN SPEC 13288数据规范及FDA预定变更控制计划等核心监管工具对保障医疗AI可靠性的关键作用。
人工智能医疗设备监管要求安全可靠欧盟监管美国FDA监管挑战未来趋势动态风险评估患者获益
机遇与挑战:基于人工智能的医疗设备监管要求

2024年8月9日

想象一个世界:诊断和治疗比以往任何时候都更精准且个性化,救命决策能在数毫秒内完成,复杂医疗数据被转化为有意义的洞察。这一愿景正通过人工智能(AI)在医疗技术中的整合成为现实。AI具有彻底革新医疗保健并改善数百万生命的潜力——但前提是确保其安全可靠。

基于AI的医疗设备安全至关重要。从疾病早期检测、个性化医疗到行政任务自动化,AI的应用潜力几乎无限。然而这些可能性也伴随着重大责任。AI必须满足严格的监管要求,以确保对患者和使用者均有效且安全。

何为人工智能?所有算法都属于AI吗?

欧盟人工智能法案第3(1)条对AI系统定义如下:

"(1)'AI系统'指基于机器的系统,设计为在不同程度自主性下运行,部署后可能具有适应性,且为明确或隐含的目标,能从输入信息中推导如何生成输出(如预测、内容、推荐或决策),从而影响物理或虚拟环境。"

通过分解这一定义可提炼出关键要素:

  • 系统需具备独立工作能力
  • 上市后可适应(非必须,"may"表明选择性)
  • 能从接收信息中衍生结果生成逻辑
  • 结果可影响物理环境(如控制设备)或数字环境(如软件调整)

简言之,AI系统是能独立决策或创造内容的计算机系统,其核心特征是从数据中衍生新内容而非遵循简单条件判断(if-else)。例如心律除颤器中基于参数比对的电击算法即不属于AI,因其不具备自主决策能力。

欧盟与美国监管要求概览

欧盟监管框架

欧盟AI法案将AI应用分为三类风险等级:

  1. 不可接受风险(如国家社会评分系统)——禁止
  2. 高风险应用(如申请人筛选工具)——特殊法律要求
  3. 非禁止且未分类为高风险——基本不受监管

根据法案第6条,医疗设备AI系统若满足以下两条件即被归类为高风险:

  1. AI系统是受《欧盟协调立法》附件I涵盖产品的安全组件,或本身作为此类产品
  2. 该产品或AI系统需经第三方合规评估方可上市

附件I明确将《医疗器械条例》(MDR 2017/745)和《体外诊断医疗器械条例》(IVDR 2017/746)列为协调立法。欧盟委员会将于2026年2月2日前发布高风险AI系统应用案例指南。

欧洲监管补充标准包括:

  • ISO 14971在AI医疗机器学习中的应用(ISO/IEC 34971:2023):聚焦AI医疗设备风险管理,特别针对临床经验不足导致的潜在风险。
  • DIN SPEC 13288 医学深度学习图像识别系统开发指南:强调训练数据的代表性、罕见医学图像类别处理及结果可解释性。
  • BS 30440:2023 医疗AI验证框架:覆盖AI系统全生命周期(开发、验证、维护、市场监测),提出各阶段具体评估标准。

美国FDA监管体系

FDA自2019年起推进AI医疗设备监管改革,核心文件包括:

  1. 2019年《AI/ML医疗器械软件修改监管框架》:建立全生命周期管理(TPLC)模型,要求覆盖从开发到持续改进的全过程。
  • 上市前安全有效性保障
  • SaMD预规范(SPS):定义初始性能规格外的"潜在变更区域"
  • 算法变更协议(ACP):建立风险控制下的持续改进机制
  • 质量体系与良好机器学习实践(GMLP)
  • 透明度与真实世界性能监测
  1. 2021年《AI/ML医疗器械软件行动计划》:细化SPS/ACP指引,推动GMLP标准化,开展AI偏倚与稳健性研究。
  2. 2021年《医疗器械开发良好机器学习实践原则》:提出10项核心准则,包括跨学科协作、数据代表性、模型性能监测等。

2023-2024年FDA进一步发布预定变更控制计划指南(4月草案)和透明度原则文件(6月),持续完善动态监管机制。

挑战与未来趋势

欧美监管对比显示:美国在具体方法论上更成熟,而欧盟通过AI法案奠定基础,但尚需细化医疗技术细则。当前挑战包括:

  • 欧洲公告机构对AI医疗设备符合性评估标准不统一
  • 适用标准(如ISO 13485)多针对非AI设备,新AI标准制定滞后
  • 制造商需持续跟踪快速演进的标准体系(如BS 30440、DIN SPEC 13288)

未来监管将聚焦:

  • 动态风险评估框架(FDA的TPLC模型)
  • 预定变更控制计划的标准化实施
  • 基于真实世界数据的持续监测体系

人工智能医疗设备的突破性创新正重塑医疗保健格局,但唯有通过严格的安全管理与科学的监管策略,方能将技术潜力转化为可持续的患者获益。

【全文结束】