人工智能在健康领域的潜在益处与风险在会议上讨论Artificial intelligence’s potential health benefits, risks discussed at conference

环球医讯 / AI与医疗健康来源:www.hsph.harvard.edu美国 - 英语2024-10-24 04:00:00 - 阅读时长5分钟 - 2123字
哈佛大学公共卫生学院举办的年度会议探讨了人工智能在医疗领域的多种应用及其潜在风险
人工智能健康领域AlphaFold诺贝尔奖抗生素耐药性癌症治疗生成式AI监管挑战哈佛公共卫生学院
人工智能在健康领域的潜在益处与风险在会议上讨论

今年标志着人工智能(AI)的一个重要里程碑——首次有技术因重要性而获得诺贝尔奖。2024年诺贝尔化学奖授予了开发包括AlphaFold在内的软件的研究人员,AlphaFold是一种预测蛋白质三维结构的人工智能模型。该模型可以应用于广泛的领域,包括健康——例如,它可以帮助研究人员更好地理解病毒蛋白,从而改进疫苗设计。

在哈佛大学T.H. Chan公共卫生学院的第18届定量基因组学项目年度会议上,AlphaFold只是众多讨论的AI技术之一。该会议于10月17日至18日在Joseph B. Martin会议中心举行,活动包括演讲、小组讨论和海报展示,研究人员讨论了使用AI推进健康的潜在益处和风险。

将AI应用于多种疾病

AI的一个应用是用于解决抗生素耐药性细菌感染问题。麻省理工学院医学工程与科学Termeer教授James Collins指出,近年来耐药性细菌菌株的数量增加,但由美国食品药品监督管理局(FDA)批准的新抗生素数量却在减少。

“抗生素发现的黄金时代是在40年代、50年代和60年代——在分子生物学革命、基因组学革命、AI革命和生物技术革命之前,”他说。“我们在过去几十年中出现了发现空白。”Collins正在开发各种AI模型来识别潜在的新抗生素分子。在2020年的一项研究中,他和他的同事测试了一组数千种已获FDA批准的药物分子,这些药物分子用于治疗任何疾病,而不仅仅是感染,以查看它们是否能抑制细菌生长。他们基于测试结果训练了一个AI模型,然后用它来预测一组新分子的潜在抗菌活性。这种方法发现了一种具有新颖生物机制的有前景的分子,当在小鼠中测试时,成功降低了多种耐药性细菌的生长。Collins现在正在探索将这种分子带入临床的方法。研究人员随后将AI方法应用于不同的细菌和更大规模的分子集合。“这项工作出炉时,正值世界开始对AI感到焦虑,”Collins说。“有趣的是,这被AI支持者提升为一个AI向善的例子——他们说不要过度监管,因为你想能够找到新的分子来对抗这些病原体。”

AI在改善癌症治疗方面也有应用。纽约市威尔康奈尔医学院生理学和生物物理学教授Olivier Elemento开发了AI模型,这些模型可以根据患者的独特基因组序列、基因表达模式或其他因素预测哪些抗癌药物可能对个体患者有效。

“我们可以利用成千上万甚至更多的患者数据,我们需要能够整合非常复杂的信息,”他说。“没有像AI这样的工具,我们无法做到这一点。”

生成式AI的进步

多位会议发言人讨论了生成式AI技术的健康应用,其中包括像ChatGPT这样的聊天机器人。与Collins和Elemento的AI模型不同,后者使用特定数据生成预测,生成式AI经过大量数据训练,可以回应人们可能提出的任何问题。Google DeepMind的研究科学家Shekoofeh Azizi分享了她开发生成式AI模型的工作,这些模型帮助临床医生执行各种任务,从分析患者症状描述并提供诊断,到查看X光图像并撰写报告说明其显示的内容。这些模型整合了多种类型的数据,如医学影像发现、电子健康记录、实验室测试结果和基因组信息,以产生仅使用单一类型数据可能无法实现的结果。

“我们正处于真正理解这一机会的非常早期阶段,”Azizi说。

监管挑战

根据主旨发言人David Blumenthal的说法,在临床中使用生成式AI带来了一系列不同的风险。Blumenthal是哈佛Chan公共卫生学院公共健康和卫生政策实践教授。这些模型可能会错误回答问题,在不同时间问同一个问题时改变答案,或提供对代表性不足的患者群体有偏见的结果。

一些政府最近实施了负责任使用AI的规定。2023年宣布的美国总统行政命令包含一系列规定,例如指示联邦机构制定AI安全、欺诈保护和数据隐私标准。2024年8月生效的欧盟AI法案禁止高风险AI用途,如操纵人们改变行为,并要求生成式AI开发者提供全面的技术文档。然而,这些规定可能不足以应对健康领域的生成式AI,Blumenthal说。

“没有人知道如何应对生成式AI。FDA不知道,欧盟也不知道——他们都在努力应对这个问题,并将其推迟,”他说。“与此同时,临床医生正在使用它进行患者护理。”由于生成式AI模型的应用范围广泛,评估其性能非常困难,Blumenthal说。他提出了一种新的监管方法,基于目前临床医生的评估方式。就像临床医生必须完成某些培训并通过执照考试一样,政府可以为生成式AI设定类似的要求,例如标准化的培训材料和测试。

另一位发言人Hoda Heidari,卡内基梅隆大学伦理与计算技术K&L Gates职业发展助理教授,指出对于生成式AI,仅基于技术准确性评估模型是不够的,因为临床医生可能以开放和不确定的方式与其互动。她建议,而不是先构建AI模型然后再确定如何在临床中应用,应该从一开始就让临床医生参与开发过程。这样,研究人员可以确定技术是否真正解决了实际需求。

“我们必须记住,实际上,AI是一项不成熟的技术,”她说。“尽管在过去几年中我们在建立更稳健和可靠的治理体系方面取得了进展,但我们离那个系统还很远。”


(全文结束)

大健康
大健康