欧盟委员会关于高风险人工智能系统的咨询:生命科学和医疗保健领域的关键点

EU Commission Consultation on High-Risk AI Systems: Key Points for Life Sciences and Health Care

欧洲联盟英语人工智能、健康法
新闻源:National Law Review
2025-06-21 02:00:00阅读时长3分钟1292字
欧盟委员会人工智能法案高风险人工智能系统生命科学医疗保健监管框架实施指南高风险分类强制要求价值链责任实际实施挑战

2025年6月6日,欧盟委员会启动了一项针对《欧盟人工智能法案》(AI Act)中高风险人工智能系统分类和监管的定向利益相关者咨询。此次咨询为生命科学和医疗保健领域的利益相关者提供了塑造即将出台的高风险人工智能系统指南的机会。

高风险人工智能系统的监管框架

2024年通过的《人工智能法案》建立了在欧盟开发、投放市场和使用人工智能的统一法律框架。该法案采用基于风险的方法,将人工智能系统分为四类:不可接受的风险(禁止)、高风险、有限风险和最小风险。

对生命科学和医疗保健领域尤为重要的是高风险人工智能系统,这些系统受到广泛的监管合规机制约束,包括风险管理、数据和数据治理、技术文档、记录保存、透明度、人类监督以及准确性、鲁棒性和网络安全等方面的要求。

《人工智能法案》第6条定义了两类高风险人工智能系统:

  • 嵌入式人工智能系统:作为产品安全组件或本身就是产品的AI系统,受欧盟协调立法(如医疗器械法规MDR或体外诊断法规IVDR)管辖。这些系统因其集成到受监管产品中而被视为高风险(例如,医疗技术产品,如医学成像、手术机器人、可穿戴设备和诊断软件)。第6(1)条,附件I。
  • 独立系统:基于其预期用途,在特定使用案例中对健康、安全或基本权利构成重大风险的AI系统。这些使用案例列在附件III中(例如,用于患者分诊的医疗保健AI)。第6(2)条,附件III。

欧盟委员会指南的作用

虽然《人工智能法案》提供了法律框架,但欧盟委员会的实施指南将在澄清高风险制度如何解释和应用方面发挥关键作用。这对于监管灰色地带尤为重要,例如在医疗器械、数字疗法、临床研究医疗保健管理中使用的AI,其风险概况可能不明显。尽管这些指南对法院没有约束力,但对于生命科学和医疗保健公司来说,它们对于确定AI系统是否属于高风险类别及其应遵守哪些合规义务至关重要。

与生命科学和医疗保健业务相关的咨询要点

此次咨询涉及多个对生命科学和医疗保健领域利益相关者非常重要的问题:

  • 高风险分类规则的澄清:咨询寻求对第6条中设定的分类机制的意见。利益相关者被邀请提供AI应用的实际示例及其对健康和安全的潜在影响,这将有助于细化高风险分类的范围。
  • 高风险系统的强制要求和义务:咨询探讨了高风险AI系统的强制要求(如风险管理、数据治理、透明度、人类监督和鲁棒性)在实践中的解释方式。对于医疗保健公司而言,这包括确保AI系统经过代表性和高质量数据集的训练,并且输出结果是可解释和可审计的。
  • 价值链责任:一个关键焦点是AI价值链中不同参与者之间的责任分配,包括开发者、部署者、进口商和分销商。咨询征求各方角色应如何定义以及各方应承担哪些义务的意见,特别是在复杂的生态系统中,AI组件由不同实体开发和集成的情况下。
  • 实际实施挑战:委员会还收集公司在实施《人工智能法案》时面临的实际挑战的反馈,包括与现有行业法规(如医疗器械法规)的重叠、符合性评估的负担以及指定机构的可用性。

政策参与的好处

欧盟委员会的咨询为生命科学和医疗保健公司提供了塑造《人工智能法案》实施的重要机会。通过贡献实际见解并突出行业特定挑战,利益相关者可以帮助确保即将出台的指南既有效又适当。在医疗保健领域使用或开发AI系统的公司应根据《人工智能法案》的高风险分类标准评估其产品组合,并考虑在2025年7月18日截止日期前提交反馈。

利益相关者可以通过欧盟调查门户访问咨询。


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。

本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。