欧盟委员会咨询塑造欧盟生命科学领域高风险AI分类European Commission Consultation Shapes High-risk AI Classification For Life Sciences In The EU

环球医讯 / AI与医疗健康来源:www.mondaq.com欧盟 - 英文2025-07-13 01:56:01 - 阅读时长5分钟 - 2058字
随着欧盟《人工智能法案》对高风险义务的实施进入倒计时,欧盟委员会发起了一项咨询活动,这将影响生命科学领域的监管修订和未来指南制定,为医疗保健和医药技术中的高风险AI系统提供清晰界定。
欧盟委员会人工智能法案生命科学领域高风险AI分类医疗保健患者安全数字健康监管修订咨询活动合规指南
欧盟委员会咨询塑造欧盟生命科学领域高风险AI分类

随着欧盟《人工智能法案》(AI Act)中高风险义务的实施进入倒计时,欧盟委员会发起了一项咨询活动,可能会影响生命科学领域的监管修订。这项从6月6日持续到7月18日的针对性举措旨在阐明在实践中如何将人工智能系统分类为“高风险”。其结果将直接影响预计于2026年2月发布的委员会指南,为制药、医疗技术和数字健康组织在2026年8月截止日期前部署或提供高风险AI提供重要指导。

《人工智能法案》的高风险方法

自2024年8月1日起生效的《人工智能法案》,为欧盟范围内的AI建立了统一的法律框架。其核心目标是促进值得信赖的人本AI,同时保障健康、安全和基本权利。该法案采用基于风险的分类方法,最严格的要求适用于高风险AI系统。这些系统被定义为受欧盟法规(如《医疗器械条例》(MDR)和《体外诊断条例》(IVDR))约束的产品的安全组件,或者作为附件III中列出的高风险领域使用的独立系统,包括多种医疗应用。

咨询文件确认,委员会必须在2026年2月2日前发布关于高风险分类实际实施的指南,包括一份详尽的高风险和非高风险用例清单。这对生命科学领域尤为重要,因为嵌入式AI(例如医疗器械中的AI)与独立AI(如临床决策支持软件)之间的区别可能决定适用的监管路径,从而影响产品上市或部署的时间表。

医疗保健和生命科学中的高风险AI

医疗保健中高风险AI系统的相关性通过《人工智能法案》明确纳入了附件I中的医疗器械和体外诊断设备(IVD),以及附件III中的医疗保健用例得到了强调。该立法认识到AI在诊断、治疗规划、患者监测和研究中的变革潜力,但也指出如果这些系统发生故障或被误用,可能会对患者安全和基本权利造成风险。

例如,嵌入核磁共振扫描仪中的AI驱动诊断工具很可能根据第6(1)条被归类为高风险,因为它作为受监管医疗器械的安全组件运作。同样,支持临床决策或管理患者数据的独立AI应用可能根据第6(2)条及附件III进行分类,具体取决于其预期用途及其对健康结果的影响。

《人工智能法案》还规定了第6(3)条下的豁免条款,即当AI系统的使用不会实质性影响决策或仅执行有限的预备任务时可获豁免。但这些豁免条款解释严格,必须仔细记录并注册。

咨询活动寻求利益相关者的实际案例,以澄清这些界限,特别是对于可能横跨两类或多风险特征模糊的系统。这对于开发或部署用于临床试验、患者管理或实验室自动化的AI工具的公司至关重要,因为错误分类可能导致不必要的合规负担或监管漏洞。

咨询的关键点

此次咨询分为五个部分,旨在收集利益相关者的意见和实际案例:第6(1)条及附件I下高风险AI的分类规则、第6(2)条及附件III下的分类规则、高风险分类的一般问题、高风险AI系统及其价值链参与者的要求和义务,以及高风险用例和禁止实践列表的潜在修订。

几个要点对生命科学领域尤为重要。

“安全组件”的定义得到了详细探讨,咨询活动寻求输入,讨论用于维护监控、预防或减轻危害的AI系统是否应包含在内。这可能影响到IVD制造商,其AI系统监控设备性能或预测故障。

高风险AI要求与其他欧盟立法(如MDR和IVDR)之间的相互作用也是反复出现的主题,目前委员会正在对其进行有针对性的评估。

咨询进一步认识到需要明确如何协调数据治理、符合性评估和售后监督义务,特别是在AI系统已经受到行业监管的情况下。

咨询还涉及AI价值链中提供商和部署者的责任,包括“重大修改”概念以及AI系统在初始市场投放后更新、集成或重新利用时的责任分配。数字健康公司可能会发现这一点特别相关,因为软件和AI集成在其领域中不断演变。

更广泛的意义

咨询是委员会履行《人工智能法案》下义务的关键机制,以提供详细且实用的高风险AI分类和合规指南。这些指南预计将影响国家当局和指定机构如何解释和执行《人工智能法案》的要求。

《人工智能法案》基于风险的方法旨在实现适度和灵活,但其有效性取决于明确、可行的定义以及在各行业和成员国之间的一致应用。因此,咨询对于确保《人工智能法案》的目标在实践中得以实现至关重要,尤其是在制药和医疗技术等复杂且高风险领域。

值得注意的是,委员会每年都会审查并必要时修订附件III中的高风险用例列表和第5条中的禁止实践列表,以确保监管框架能够应对技术和社���发展。

Osborne Clarke评论

委员会针对利益相关者的咨询为生命科学组织提供了参与制定指南的机会,这些指南将决定AI系统在《人工智能法案》下如何分类和监管。

参与咨询并非强制性,但它可以帮助企业预见监管发展,并支持一个适度且创新友好的合规环境。

在生物技术、医疗技术和数字健康领域运营的公司可能希望根据《人工智能法案》的分类标准审查其AI产品组合,并在风险状态不明确或现有行业监管已提供强大保障的情况下提交实际案例或请求澄清。

企业可能会发现,跟踪咨询进展并在2026年初委员会指南发布前做好准备是有帮助的,因为这些指南将在《人工智能法案》高风险义务于2026年8月生效前设定合规期望。


(全文结束)

大健康
大健康