美国食品药品监督管理局(FDA)肩负着确保医疗AI产品在上市前的安全性、有效性和可信性的重任。随着技术不断创新,尤其是生成式AI的发展,这一任务变得更加繁重。但不必担心,该机构已经做好准备,尽其所能履行其职责。只是它无法同时为所有人解决所有问题。事实上,它需要来自其他利益相关者的帮助。
这一点在10月15日发表于《美国医学会杂志》(JAMA)的一篇特别通讯中有所体现。该论文由FDA局长罗伯特·卡利夫博士(Robert Califf, MD)等人合著,描述了FDA必须处理的10项职责。以下是其中六项的总结:
1. 跟上AI变化的步伐
Califf及其合著者指出,FDA已表现出对新兴技术创新计划的开放态度,例如软件预认证试点计划。然而,该计划表明,成功开发和实施这些路径可能需要FDA获得新的法定权力。他们还补充说:“这些变化的数量及其影响也表明,行业和其他外部利益相关者需要加强AI在整个生态系统中的评估和质量管理,而不仅仅是FDA的管辖范围。”
2. 应对大型语言模型和生成式AI的未知因素
官员们指出,FDA尚未授权任何大型语言模型(LLM)。然而,许多拟议的医疗应用将需要FDA的监督,因为它们旨在用于疾病的诊断、治疗或预防。即使是设计用于总结医疗记录的“AI书记员”,也可能出现“幻觉”或包括未在就诊中讨论的诊断。他们进一步表示:“需要在这个领域进行监管创新,以实现这些信息来源的分析和整合到临床决策中。开发者、临床医生、卫生系统领导者和监管机构在如FDA数字健康咨询委员会等平台上的主动参与将至关重要。”
3. 优先考虑AI生命周期管理
鉴于“解锁”模型的演变能力和AI对上下文变化的敏感性,越来越明显的是,AI性能应在使用环境中进行监控。作者们指出:“这种对市场后性能监控的需求对卫生系统和临床实践的信息管理具有深远的影响。”他们补充说:“为了应对这一时刻,卫生系统需要提供类似于重症监护病房患者监测的信息生态系统。这种持续评估的工具和环境必须是反复的,并尽可能接近连续,且应在使用的临床环境中进行评估。”
4. 依赖产品供应商成为负责任的合作伙伴
Califf等人写道:“FDA监管的核心是受监管行业本身的自愿合规。”例如,FDA审查通常由行业资助的研究,但不进行临床试验。他们进一步表示:“负责医疗产品开发和应用的AI监管始于发起人的负责任行为和质量管理,这与FDA的一般监管制度并无根本差异。”
5. 在大型科技公司、初创企业和学术界之间平衡监管关注
大型科技公司在AI创新生态系统中占据主导地位。在医疗保健领域,这给FDA带来了诸多挑战。作者们指出,其中最重要的是“确定所有开发者,包括小型实体,如何确保AI模型在整个产品生命周期内,在多样化环境中安全有效的艰巨任务”。他们补充说:“大多数当前的FDA项目都有专门的支持小企业和学术界的举措,这些举措同样适用于AI。”
6. 缓解公司盈利动机与提供者护理要求之间的紧张关系
Califf及其同事写道:“有意关注健康结果将是克服强调导致医疗保健系统次优化的做法、金融化和数据封锁的负面风险的压力的必要条件。”他们进一步表示:“FDA保护和促进个人和公共卫生的使命将对系统施加压力,但负责任的集体进步的广泛合作需求超出了FDA的范围。”
该论文的合著者还包括FDA高级临床顾问海德·瓦拉奇博士(Haider Warraich, MD)和FDA数字健康主任特洛伊·塔兹巴兹(Troy Tazbaz)。
(全文结束)


