本周早些时候,美国食品药品监督管理局局长马蒂·马卡里和生物制品评价与研究中心主任维奈·普拉萨德在《美国医学会杂志》上发表了一篇文章,讨论了FDA计划使用人工智能来加速多个健康相关领域的决策。
文章中提到,人工智能可能被用于:
- 加速药物和设备的批准
- 减少动物实验
- 处理食品中的“令人担忧”的成分
许多人对这一举措表示担忧,其中包括缅因州的科学家和科学传播者伊丽莎白·马尔尼克。她特别担心几周前发布的“让美国再次健康”报告中出现了虚假引用,这可能是由于不系统地使用了人工智能。
还有其他方面的担忧。“FDA探索使用人工智能来加速药物和设备的审批以及食品成分监管,标志着监管创新的一个关键转折点,但这也引入了一系列法律、伦理和结构性紧张关系,这些关系不能被忽视。”约翰霍普金斯凯瑞商学院和布隆伯格公共卫生学院的法律和伦理教授斯泰西·B·李通过电子邮件告诉HuffPost。
一些人认为,用人工智能加速进程是虚伪的
“这有点让人困惑,因为他们似乎在做自己批评的事情——他们有一个大议程,几乎重新审议所有由我们的公共卫生机构建立以确保‘安全性和有效性’的程序,但他们也想加快速度,”传染病流行病学家杰西卡·马拉蒂·里维拉说。
快速推进程序通常与确保“安全性和有效性”不相容。“这感觉你不能同时拥有这两样东西,”她补充道。
尽管FDA的人工智能使用尚未涉及疫苗试验,但卫生与公共服务部部长罗伯特·F·肯尼迪希望将许多疫苗进行更长时间的试验。“然而,他们仍然表示希望缩短审查时间并加快治疗的交付,”马拉蒂·里维拉说。
肯尼迪还反复承诺“彻底透明”,但人工智能威胁到了这种透明度。“我还没有找到关于他们如何使用AI的很好的透明信息。他们谈到使用它进行审查,但具体是如何使用的?”马尔尼克说。
还有法律上的担忧
“法律并不禁止创新,但它确实要求问责制,”李说。
“任何人工智能实施都必须受到明确的法定授权、严格的监督和公布的办法,以保持公众信任,”她补充道。
这又回到了透明度的问题。“核心问题是不透明。特别是专有或黑盒模型的人工智能工具可以掩盖决策是如何做出的。如果一种药物获得批准或一种食品成分被标记是基于公众无法审查的算法,那么就会侵蚀正当程序和患者安全,”李说。“这一举措还提出了重要的结构性问题:如果人工智能系统导致了错误的批准或遗漏了危险信号,谁来负责?软件开发人员?还是依赖该工具的FDA工作人员?”
目前存在一个巨大的责任缺口,“而且监管框架还没有跟上。”
当MAHA诋毁各种食品和成分时,让人工智能参与评估“令人担忧”的成分是令人担忧的
当谈到使用人工智能来查看美国食品中的“令人担忧”的成分时,马拉蒂·里维拉表示担忧。
“MAHA和马蒂·马卡里特别继续散布有关食品安全的错误信息,”她说。“他们继续贬低那些对人们无害的东西,比如种子油,他们继续歪曲婴儿配方奶粉的成分。”
许多用来诋毁某些食物和成分的词语都是健康营销噱头,“比如非转基因和有机食品,推崇牛脂和生牛奶。”
她还表达了对用于告知人工智能系统的数据和语言的担忧。“我不相信负责这些决定的人会基于证据做出关于食品成分的决定。我真的不相信。”
对人工智能的偏见也有担忧
“我们还需要考虑训练数据中的偏见。如果人工智能是在历史上有偏见的数据上训练的——比如说,临床试验中女性或有色人种代表性不足——我们可能会自动化批准或警告中的差异,”李说。
研究表明,人工智能本身是有偏见的,甚至会强化种族刻板印象。
此外,人工智能将如何处理目前被特朗普政府禁止的所谓“DEI相关”词汇?
“我甚至不知道,因为所有这些被禁的词汇,包含这些被认为被禁的词汇的应用是否会通过这些人设计的AI模型,”马拉蒂·里维拉补充说,她想知道如何确保人工智能过程中的公平和无偏见审查。“我希望看到方法论。我希望看到它不会造成进一步伤害的方法。”
但在现代科学中,人工智能确实有一些用途
许多人对人工智能持怀疑态度,这是有充分理由的。它正在取代工作岗位,存在剽窃问题,与隐私问题有关,如前所述,它也被认为是有偏见的。
但是,如果使用得当,人工智能在FDA和日常生活中都有其优点。
“特别是在食品监管方面,这可能是一个突破。人工智能可以扫描分子结构并评估安全性,规模之大是任何人类团队都无法匹敌的,”李说。“但系统的设计必须优先考虑健康,而不是便利。”
“我认为最终人工智能将成为帮助简化事情甚至分析大数据集的有用工具,”马尔尼克说,“但在将其用于联邦层面之前,我们必须经过很多步骤来确保它正确运行。”
马拉蒂·里维拉指出,人工智能不会消失,虽然它可以用来审查数千页的信息,但从过程中完全去除人类将是一个错误。
FDA的人工智能项目需要有保障措施,以确保其正常运作
无论FDA如何使用人工智能,都必须有流程来确保公平性和准确性,专家们说。
“如果你们最终想使用这个系统,应该有一个科学的过程来确定系统实际上像你们认为的那样工作,并且实际上像人工审查过程一样工作,”马尔尼克说,如果没有系统(和人员)来确保人工智能正常运行,可能会出现重大问题。
李指出,知情决策需要经过审查、解释并且对患者、研究人员和政策制定者来说是公平的。
“人工智能在医疗保健领域不仅仅是技术问题;这是一个信任问题,”李说。
否则,更多的人可能会对医疗系统产生不信任。而信任水平已经很低,大约三分之二的美国人表示对医疗体系缺乏信心。
“FDA的人工智能试点正处于公众对医疗机构信任已经脆弱的时刻。做好这一点意味着现在就要建立正确的保障措施,而不是在第一次高调失败之后,”李说。“这包括独立审计、透明报告、人为监督和明确的法律责任。”
马拉蒂·里维拉说,如果她相信FDA领导者的科学严谨性和诚信,那么在健康和科学中使用人工智能就是一回事。“但我并不相信。因此,我不相信这些决策者能够设计和/或导航这些工具。”
马拉蒂·里维拉还补充说,任命在MAHA政权下的人有一个不是基于证据的科学议程。“这个议程是一种替代的、反传统的健康和福祉版本,经常传播大量有害的错误信息。”
马尔尼克补充说,她不认为人工智能目前能够进行严格的科学审查或发现与科学数据相关的限制,这对于FDA在医疗批准方面至关重要。
“人工智能只与你给它的提示和方向以及它接受的训练一样好,”马尔尼克说。“所以,最终我认为这太早了,我想知道他们到底打算如何使用它。”
(全文结束)


