许多生命科学和医疗保健公司正在开发或部署基于人工智能的医疗设备和数字健康解决方案,这些方案可能被归类为高风险类别。
2025年6月6日,欧盟委员会根据《欧盟人工智能法案》(AI Act)启动了一项针对高风险人工智能系统的定向利益相关者咨询。其目标是帮助欧盟委员会制定未来对高风险人工智能系统进行分类和监管的指南。
此次咨询对生命科学和医疗保健公司尤为重要,因为它们中的许多企业开发或部署了可能属于高风险类别的基于人工智能的医疗设备和数字健康解决方案。咨询希望从广泛的利益相关者那里收集关于《人工智能法案》高风险分类规则及相应义务的实际实施意见。
法案内容概述
《人工智能法案》旨在建立一个以信任和以人为本为核心的人工智能法律框架,并采用基于风险的方法。根据第三章定义,高风险人工智能系统需遵守严格的要求,且合规性将于2026年8月2日起成为强制性。
对于生命科学和医疗保健公司而言,这一点尤为关键:作为医疗设备安全组件或在医疗环境中使用的人工智能系统,很可能根据法案第6条第1款和附件I被归类为高风险。该法案还涵盖了一些特定应用场景下可能影响健康、安全或基本权利的人工智能系统(第6条第2款和附件III)。
根据《人工智能法案》,欧盟委员会必须在2026年2月2日前发布关于高风险分类实际实施的指南。其中包括高风险和非高风险用例的详细示例。额外的指导将进一步澄清高风险人工智能系统要求和义务的应用,以及人工智能价值链中责任的分配。
咨询范围与结构
此次咨询分为五个部分,每个部分都与生命科学和医疗保健公司密切相关:
医疗与健康人工智能的分类规则
利益相关者受邀对人工智能系统中“安全组件”的定义和范围发表意见,包括那些集成到医疗设备中的组件。咨询方希望获得关于实际案例的意见,以及在现有欧盟医疗设备法规下第三方符合性评估的应用情况。这一领域一直存在争议,主要是因为单独的认证程序可能会带来额外负担。
医疗领域的高风险用例
第二部分涉及用于高风险领域(包括健康)的人工智能系统。利益相关者可以就豁免条款的适用、高风险与禁止人工智能实践之间的区别,以及与其他欧盟立法(如《医疗器械法规》(MDR)和《体外诊断医疗器械法规》(IVDR))的互动提供反馈。
横向方面与重叠问题
第三部分聚焦于“预期用途”的定义、附件I和附件III之间可能存在的重叠,以及需要进一步澄清或示例的问题——这些问题对于开发多用途或自适应医疗人工智能系统的企业尤其重要。
价值链上的要求与责任
第四部分的咨询寻求关于强制性要求(如风险管理、数据治理、透明度、人工监督、稳健性等)的解释和实际应用意见,以及提供商与部署者之间责任分配的看法。与现有医疗设备义务的互动及基本权利影响评估也在讨论范围内。
高风险用例与禁止实践的修订
第五部分允许利益相关者提出对高风险用例和禁止实践清单的修改建议,包括那些与医疗保健和生命科学相关的建议,以解决监管空白或重叠问题。
关键机遇
此次咨询为生命科学和医疗保健公司提供了重要机会,可以突出《人工智能法案》在行业中的特定挑战,例如人工智能医疗设备的分类、重复符合性评估的负担,以及在复杂价值链中责任分配明确指引的需求。咨询为企业提供了将具体一手意见反馈给欧盟委员会的机会。
咨询明确鼓励企业和利益相关者提供在医疗保健领域开发和部署人工智能时遇到的具体问题示例,并倡导在即将发布的指南中提出切实可行的解决方案。通过这种方式,可以解决具体的痛点。
此次咨询的结果可能会对生命科学和医疗保健领域人工智能的实际监管环境产生影响。早期参与有助于确保未来的指南清晰、适度,并与现有的行业法规保持一致。
后续步骤
此次咨询将持续至2025年7月18日。对于那些正处于准备遵守《人工智能法案》的监管合规过程中的生命科学和医疗保健公司来说,这次咨询提供了影响欧盟基于风险的人工智能监管方法操作化的机会。
积极主动地参与可以帮助确保即将发布的指南能够应对行业的特定挑战,澄清模糊条款,并促进同时遵守《人工智能法案》和现有医疗设备法规。
从更广的角度来看,此次咨询的结果可能会对欧盟内人工智能驱动医疗技术的开发、市场准入和部署产生重大影响。
阿梅莉·肖莱(Amélie Chollet)是CMS生命科学与医疗保健团队的合伙人,专注于为在英国和欧盟运营的生命科学公司提供法律监管问题支持。罗兰·韦林博士(Dr. Roland Wiring)是CMS生命科学与医疗保健团队的联合负责人,在此职位上,他共同领导着一支由480多名律师、专利代理人、科学家和学者组成的国际团队。
(全文结束)


