美国要求透明度欧盟强制人工监督:人工智能药物监管新规U.S. Demands Transparency, EU Mandates Human Oversight in AI Drug Regulation

环球医讯 / 创新药物来源:www.msn.com美国 - 英语2025-11-27 02:50:04 - 阅读时长2分钟 - 697字
本文系统阐述了全球主要监管机构在人工智能药物开发领域的监管框架演进。美国食品药品监督管理局(FDA)强调模型透明度与生物学证据验证,要求提交AI更新管理计划;欧洲药品管理局(EMA)在临床数据分析等高风险环节强制实施人工审核与伦理审查;韩国食品药品安全部发布指导方针明确数据责任归属。各方正通过FDA的Elsa系统等AI工具提升审查效率,应对模型错误与数据偏差挑战,推动药物研发成本降低与流程优化,为全球健康创新建立新型监管范式。
人工智能药物监管美国FDA透明度欧盟EMA人工监督药物开发临床试验虚拟患者孪生患者数据偏差AI工具Elsa
美国要求透明度欧盟强制人工监督:人工智能药物监管新规

人工智能不仅在新药发现领域推动创新,也在临床试验中发挥关键作用。在美国,采用AI驱动的虚拟患者的临床试验已获部分许可;在欧洲,AI生成的"孪生患者"被用于预验证药物反应,这显著降低了研发成本与时间。

随着人工智能介入药物开发的每个环节——从识别候选物质到设计临床试验、选择参与者及分析数据——各国政府日益面临如何批准和监管这些AI开发药物的挑战。这源于AI模型错误和数据偏差等未预见问题,现有监管框架难以完全解决。

美国食品药品监督管理局(FDA)允许使用人工智能,但要求严格透明度。今年1月,FDA发布AI相关药物开发的草案法规,承认AI在发现候选物质、临床前研究、临床试验和制造中的作用。然而,该法规要求验证AI生成结果的方式及其是否符合生物学证据。若临床试验期间更新AI模型,必须提交管理计划以确保一致性。

欧洲药品管理局(EMA)比FDA更强调伦理与安全。在低风险阶段(如识别候选物质)采用灵活监管的同时,在高风险阶段(如临床数据分析)强制要求严格的数据与模型验证、人工监督及文档记录。关键决策必须由人类专家强制审核,EMA建议在使用AI时提交临床试验申请前咨询监管机构。

韩国食品药品安全部尚未实施正式法规,但于去年6月发布《人工智能在药物开发中应用的指导方针》。该指南指出,AI可用于药物开发全过程,同时强调数据适当性与人工责任归属。

利用AI改进药物审查流程的努力也在持续推进。FDA已推出自主开发的AI工具"Elsa",用于对提交申请进行初步审查。EMA正推广一项计划,旨在到2028年鼓励评审员广泛采用AI和大数据工具。

【全文结束】

大健康
大健康