FDA 对医疗保健中生成式AI采取长远视角FDA taking the long view of generative AI in healthcare

环球医讯 / AI与医疗健康来源:aiin.healthcare美国 - 英语2024-11-27 02:00:00 - 阅读时长3分钟 - 1272字
FDA新成立的数字健康咨询委员会(DHAC)在其首次会议上讨论了如何在整个产品生命周期内监管配备生成式AI的医疗设备
FDA医疗保健生成式AI数字健康咨询委员会产品生命周期AI生命周期模板监管基础模型公共健康
FDA 对医疗保健中生成式AI采取长远视角

FDA 新成立的数字健康咨询委员会(DHAC)上周才举行了第一次会议,但已经将其思考成果付诸文字。从委员会成员在11月首次会议前收到的30页文件中可以看出,委员会关注的是确保该机构在这些产品的整个生命周期内密切监控配备生成式AI的医疗设备。以下是摘录,按我们希望在场时会提出的问题组织。

为什么在整个产品生命周期(TPLC)策略对监管配备生成式AI的医疗设备至关重要?

FDA 长期致力于TPLC方法,这一方法对于那些旨在比以往任何时候都更快更频繁迭代的医疗设备来说越来越相关。

“TPLC 方法可能仍然是管理未来安全有效的生成式AI赋能医疗设备的重要手段。”

FDA 的TPLC方法与该机构的AI 生命周期模板有何关系?

总体而言,考虑FDA 的AI 生命周期对于生成式AI赋能设备和其他AI赋能设备的管理可能是制造商在整个TPLC期间管理其设备的一种重要方式。

“此外,AI 生命周期可以作为有用的模型,帮助确定可能需要新的技术、方法或标准来确保这些新技术在整个TPLC期间得到充分管理。”

回到基础问题。FDA 如何定义“生成式AI”?

生成式AI是指一类模仿输入数据结构和特征以生成衍生合成内容的AI模型,包括图像、视频、音频、文本和数字内容。

“生成式AI模型可以分析输入数据并生成上下文适当的输出,这些输出可能并未明确出现在其训练数据中。”

生成式AI与传统AI/机器学习有何相似之处和不同之处?

与其他AI/ML模型一样,生成式AI模型通常是在如此庞大的数据集上开发的,以至于人类开发者在开发过程中通常无法了解数据集的所有内容。

“与用于开发其他AI/ML模型的数据集相比,用于生成式AI模型开发的数据集可以有意广泛,并且最初可能不会针对特定任务进行调整。”

生成式AI为何特别难以监管?

有时,生成式AI处理多样、新颖和复杂任务的能力可能会导致对其输出范围的不确定性。

“当控制不足时,这种不确定性可能会转化为难以确认设备预期用途的界限,这可能会给FDA 监管生成式AI赋能设备带来挑战。”

为什么许多生成式AI模型是基础模型这一点很重要?

基础模型是在广泛的数据上训练的,可以广泛应用于执行多种任务的众多AI应用。

“如果制造商在其具有特定预期用途的产品中使用基础模型或其他生成式AI工具,而该产品符合医疗器械的定义,则利用基础模型的产品可能成为FDA 设备监管的重点。”

如何最好地避免FDA 拒绝生成式AI产品?

有时,制造商和开发者应考虑生成式AI在某些情况下可能不利于公共健康。当实施可能提供错误或虚假内容时,就可能出现这种情况。

“制造商和开发者应考虑何时生成式AI可能是或不是特定预期用途的最佳技术。”

展望未来,FDA指出,所需的性能评估方法将由生成式AI赋能设备的具体预期用途和设计决定,其中一些可能需要为某些预期用途制定新的性能指标。

“与其他所有设备一样,总证据(可能包括上市前和上市后的证据)可以支持这些设备在整个TPLC期间的安全性和有效性的合理保证。”


(全文结束)

大健康
大健康