美国食品药品监督管理局(FDA)正忙于确保医疗AI产品在上市前的安全性、有效性和可信度。随着技术的不断创新,尤其是生成式AI的发展,这一任务变得更加艰巨。但请放心,该机构已经准备好尽其所能履行其职责。只是它无法同时为所有人解决所有问题。事实上,它需要其他利益相关者的帮助。这一点在10月15日发表在《美国医学会杂志》(JAMA)的一篇特别通讯中有所体现。这篇由FDA局长罗伯特·卡利夫博士(Robert Califf, MD)主笔的论文描述了该机构必须应对的十项职责。以下是其中六项的摘要。
1. 跟上AI变革的步伐
FDA对新兴技术的创新项目表现出开放态度,例如软件预认证试点计划(Software Precertification Pilot Program)。卡利夫及其合著者指出:“然而,正如该计划所展示的,成功开发和实施这些路径可能需要FDA获得新的法定权力。”他们补充说:“这些变化的数量及其影响也表明,行业和其他外部利益相关者需要加强AI在整个生态系统中的评估和质量管理,而不仅仅是FDA的管辖范围。”
2. 准备应对大型语言模型和生成式AI的未知挑战
FDA尚未授权任何大型语言模型(LLM),官员们指出:“然而,许多拟议的医疗应用将需要FDA的监督,因为它们旨在用于疾病的诊断、治疗或预防。”即使是设计用于总结医疗记录的“AI秘书”,他们强调,“也可能产生幻觉或包括未在就诊中讨论的诊断。”他们进一步指出:“这个领域需要监管创新,以便分析这些信息来源并将其整合到临床决策中。开发者、临床医生、卫生系统领导者和监管机构在FDA数字健康咨询委员会等平台上的主动参与将是关键。”
3. 优先考虑AI生命周期管理
鉴于“解锁”模型的演变能力和AI对环境变化的敏感性,越来越明显的是,AI性能应在使用环境中进行监控。作者表示:“这种对市场后性能监控的需求对卫生系统和临床实践的信息管理有深远的影响。”他们补充道:“为了应对这一时刻,卫生系统需要提供一个类似于重症监护病房患者监测的信息生态系统。这种持续评估的工具和环境必须是反复的,尽可能接近连续,并且应在使用的临床环境中进行。”
4. 依赖产品供应商成为负责任的合作伙伴
“FDA监管的核心是受监管行业本身的自愿合规,”卡利夫等人写道。“例如,FDA审查通常由行业资助的研究,但不进行临床试验。”他们进一步指出:“AI在医疗产品开发和应用中的监管始于赞助商的负责任行为和质量管理,这与FDA的一般监管制度并无根本差异。”
5. 在大型科技公司、初创企业和学术界之间平衡监管关注
大型科技公司在AI创新生态系统中占据主导地位。在医疗保健领域,这给FDA带来了诸多挑战。作者指出:“其中最令人望而生畏的任务之一是确定所有开发者,包括小型实体,如何确保AI模型在多样化环境中安全有效。”他们补充道:“目前大多数FDA项目都有支持小企业和学术界的特别举措,这些举措同样适用于AI。”
6. 缓解公司利润动机与提供者护理需求之间的紧张关系
“有意关注健康结果将是克服强调导致医疗系统次优化的做法、金融化带来的不利风险和数据封锁压力的必要条件,”卡利夫及其同事写道。他们进一步指出:“FDA保护和促进个人和公共健康的使命将对系统施加压力,但负责任的集体进步需要广泛的协作,这超出了FDA的范畴。”
该论文的共同作者还包括FDA高级临床顾问海德尔·瓦拉奇博士(Haider Warraich, MD)和数字健康主任特洛伊·塔兹巴兹(Troy Tazbaz)。
(全文结束)


