AI技术正在扩展医疗设备的定义范围。历史上,医疗设备的定义主要基于其物理特性和预期用途,但AI技术的引入带来了复杂性,挑战了这一传统框架。随着生成式AI工具被整合到患者护理中,监管机构正在重新定义“设备”的概念,认识到软件解决方案与传统硬件设备一样有效。新的监管框架必须出现,以验证和监控这些工具,从而发挥其效能。
确保医疗AI的安全性和有效性并非单一责任,而是三个关键利益相关者的共同责任:监管机构、行业和临床医生。
- 监管机构:监管机构负责制定、执行和调整管理医疗AI使用的标准。
- 行业:医疗器械公司有责任开发符合安全标准的AI技术,确保透明度,并进行上市后的监控。
- 临床医生:医疗保健专业人士在确保AI设备适当使用和持续监测临床结果方面发挥着重要作用。
每个群体必须紧密合作,以确保AI技术既具有创新性又安全。这一点在AI设备常用于儿科或罕见疾病治疗等复杂、高风险环境中尤为重要,因为这些情况下失败的影响更为显著。
AI系统非常适合精准医疗应用。局部调优(local tuning)允许AI系统适应特定患者群体或地理环境,与应用全球标准相比,这种方法具有更高的效率优势。监管机构必须确保行业实践能够收集并应用这些子群体的相关数据,尤其是在数据有限的情况下。挑战在于在定制解决方案的需求与维护跨不同人群和地区监管一致性的总体目标之间取得平衡。AI技术通常依赖于大型统计数据集,但在许多医学领域,数据积累受到谨慎态度或条件罕见性的限制。这给负责评估AI设备效益风险比的监管机构带来了挑战,特别是在数据稀少或难以解读的情况下。监管机构必须依赖上市后数据和持续监控来调整安全配置文件。对上市后审查的重视突显了监管机构、行业和临床医生之间持续合作的重要性,以监测真实世界的表现并作出必要的调整。
随着AI在医疗保健领域的角色日益重要,监管机构、行业领导者和临床医生必须共同努力,建立一个既能促进创新又能确保患者安全的监管框架。鉴于AI技术,尤其是医疗设备的不断发展性质,跨边界和部门的合作至关重要。通过采用共同责任模式并专注于上市后生命周期管理,我们可以确保AI技术在不牺牲安全性的前提下,实现改善患者护理的承诺。
(全文结束)


