2026年1月14日,美国食品药品监督管理局(FDA)和欧洲药品管理局(EMA)联合发布了《药物研发中良好人工智能实践指导原则》,这是一套10项高级别原则,旨在指导在整个产品生命周期中安全负责任地使用人工智能。尽管这不是正式的行业指南,但该文件提供了FDA和EMA在药物和生物制品开发过程中部署人工智能的重要见解,并预示着两家监管机构未来将发布更具体的监管指南。
FDA和EMA发布的这些原则涉及用于药物和生物制品非临床、临床、上市后和生产阶段生成或分析证据的人工智能系统。监管机构将这些原则定位为未来指南、标准以及来自国际监管机构、国际标准组织和其他合作机构的协调监管期望的基础。
监管机构强调,人工智能可以加速创新、缩短上市时间、加强药物警戒并减少对动物试验的依赖,同时保持现有的质量、安全性和有效性标准。然而,要实现这些好处,在药物和生物制品开发过程中使用人工智能应当遵循这10项原则。这些原则中的关键理念包括:(1)以人类为中心的伦理设计;(2)基于风险的开发、部署和性能评估;(3)数据治理、文档管理和网络安全;以及(4)数据质量和生命周期管理。
对受监管行业的关键启示
这些原则有效地概述了监管机构期望开发者遵循的治理检查清单,但并未提供具体可行的操作指南来证明合规性。这使得开发者需要自行解读如何在实践中应用这些宽泛的概念,同时等待监管机构提供更详细的建议。
在此背景下,企业应开发并重新评估其人工智能治理框架,重点关注切实可行的步骤,包括:(1)建立正式的跨职能治理机构;(2)实施基于风险的方法来对人工智能工具进行分类并确定适当的验证级别;(3)确保在整个AI生命周期中提供可靠的文档记录(例如数据来源、模型选择和验证报告);以及(4)通过提交前会议尽早与监管机构接触,就新型AI系统的期望达成一致。此外,那些在提交前会议中就期望和一致性主动与FDA接触的赞助商,或者对已在使用的系统,根据这些原则重新评估其当前的人工智能治理框架,将在监管互动中处于更有利的地位。
【全文结束】

