美国食品药品监督管理局(FDA)与欧洲药品管理局(EMA)近日联合发布声明,提出人工智能(AI)在药物开发中应用的10项"指导原则"。
这些原则适用于设计、验证、部署或依赖AI开展监管工作的申办方、合同研究及制造组织、软件数据供应商等合作伙伴。声明指出,这些指导原则明确了"国际监管机构、国际标准组织及其他协作机构可共同推进药物开发良好实践的关键领域"。本简报将阐释声明内容、适用对象、原则核心要义及其对FDA与EMA互动的重要意义。
核心内容概述
声明详细规定了AI在生成或分析药物开发证据时的设计、应用及管理准则。FDA在配套说明中强调,此举将充分释放AI潜力,同时确保信息可靠性以保障患者安全及监管卓越性。FDA指出,制定指导原则对"解决AI在药物开发中应用的独特挑战与考量"至关重要。
FDA-EMA联合声明将AI定义为支持非临床研究、临床试验、生产制造及上市后安全有效性工作的系统级技术。同时明确药物仍须满足质量、疗效和安全的核心要求,AI应强化而非削弱患者保护。"药物"一词涵盖美国的药品与生物制品,以及欧盟的医药产品。
对FDA与EMA互动的关键影响
FDA与EMA的核心关注点在于决策依据的可靠性与完整性。尽管新原则不改变现有法律,但监管机构表示其与现行实践准则一致。声明明确要求申办方及其合作伙伴需准备回答监管机构关于数据来源与生成方式、数据处理流程、模型验证方法(证明其适用于预期用途)等问题。监管机构还将审查AI辅助决策的人工监督机制、数据系统网络安全防护,以及通过持续性能评估及时发现并修复数据漂移等问题的能力。企业尽早遵循这些原则,可减少申报材料返工、提升检查准备度,并确保AI支持的流程在药物全生命周期中产生可靠可审计的结果。
10项原则通俗解读
10项原则可归纳为五大主题:
主题一:人本设计
AI的构建与应用应体现伦理与人文价值。申办方需前瞻性评估技术对患者及用户的影响,从源头建立保护机制,以推进患者利益与公共健康并规避可预见风险。(标准1:人本设计)
主题二:风险分级管控
每项AI应用须明确界定使用场景及其输出用途。据此评估模型风险等级,并匹配相应测试强度、保障措施及监督力度:低风险工具可简化管控,而影响重大决策的高风险工具需深度验证与强化保障。(标准2:风险分级管控)
主题三:标准合规与专业协作
AI工作应遵循适用的法律、伦理、技术、科学、网络安全及监管标准(包括《药物临床试验质量管理规范》和《药品生产质量管理规范》)。强烈建议在AI全生命周期中整合多学科团队,包括领域专家、数据科学家、软件工程师、网络安全专家、临床与生产质量负责人及患者安全专员,专业配置需匹配预期用途。(标准3:标准合规;标准5:多学科专业协作)
主题四:数据与模型规范
申办方需详细记录数据来源、处理步骤及分析选择,确保可追溯性与可验证性,同时实施适当隐私保护。模型构建应采用规范的软件系统工程,选用契合用途的数据集,并平衡可解释性、透明度与预测性能。清晰界定使用场景,注重透明度、可靠性、普适性及鲁棒性——患者安全系于此。(标准4:明确使用场景;标准6:数据治理与文档;标准7:模型设计开发规范)
主题五:严谨评估与全周期管控
性能评估需考察完整系统,包括AI在实际工作流中与人类的交互。验证应采用契合使用场景的数据与指标,测试设计需科学严谨。质量管理体系应覆盖AI全生命周期。申办方须规划持续监测与定期重评估,及时发现数据漂移等问题并维持性能达标。必须以清晰易懂的语言向用户、患者及其他利益相关方传达AI核心信息,包括功能定位、性能水平、局限性、数据基础、更新机制及解读方式。(标准8:风险分级性能评估;标准9:全生命周期管理;标准10:核心信息透明化)
与现有监管框架的衔接
这些原则嵌入FDA与EMA现有的数据完整性、产品质量及患者安全评估体系。标准中强调的良好文档规范,呼应了可追溯性与可审计性的长期要求;验证及适用性指标的侧重,与当前临床及生产证据审查逻辑一致;贯穿AI全周期的质量管理要求,契合临床试验的《药物临床试验质量管理规范》与生产环节的《药品生产质量管理规范》,包括变更控制、偏差处理及定期回顾。网络安全与隐私保护的关注点,亦符合当前系统与敏感数据保护要求。由于原则根植于成熟框架,FDA与EMA将通过现有流程实施,无需制定新规。
(注:原文提及去年本团队对FDA两份AI应用指南的解读,此处省略相关链接)
【全文结束】

