OHRP 研讨会聚焦人类研究中人工智能的应用与担忧OHRP Workshop Highlights Artificial Intelligence Uses, Concerns in Human Research

环球医讯 / AI与医疗健康来源:www.jdsupra.com美国 - 英文2024-10-10 23:00:00 - 阅读时长7分钟 - 3116字
美国卫生与公众服务部人类研究保护办公室近期举行的研讨会探讨了人类研究中人工智能的应用及相关法律和伦理问题。
OHRP研讨会人工智能人类研究伦理考量法律考量数据去识别化同意问题隐私与保密
OHRP 研讨会聚焦人类研究中人工智能的应用与担忧

美国卫生与公众服务部(HHS)人类研究保护办公室(OHRP)近期举办了其 2024 年探索性研讨会,题为“人工智能在人类研究中的不断变化的格局——将伦理付诸实践”(The Evolving Landscape of Human Research with AI – putting Ethics to Practice)。该研讨会广泛涵盖了人工智能在人类受试者研究中的当前应用,以及这些应用所涉及的各种法律和伦理考量。尽管研讨会期间的个人陈述和小组讨论涵盖了一系列主题,并提出了许多有趣的问题和假设,但小组成员并未得出任何具体结论或就解决关键问题的下一步措施达成任何共识。即便如此,小组成员还是提供了一些关键见解,企业和监管机构在人类研究中扩大人工智能的使用案例以及创建相关使用规则时必须努力应对。以下是我们从研讨会中总结的一些关键要点:

人工智能在研究中的应用案例不断发展

小组成员讨论的一个关键主题是,人工智能在人类研究中的应用正在迅速发展,这意味着新用例的伦理考虑和治理控制往往远远落后于实施。研讨会的参与者可能最熟悉人工智能在促进某些繁琐研究任务方面的某些用途,例如站点可行性研究、合同和预算编制或方案开发。然而,分散试验与研究联盟的联合主席 Craig Lipset 提醒观众,当前的用例远远超出了这些众所周知的例子,并扩展到了诸如自动化研究构建等用途,其中“数字”方案可以被视为动态数据源和下游研究任务自动化的种子,例如制定研究数据的分析方法(即统计分析计划),或者一直到指导研究进行和生成研究报告提交。小组成员讨论的其他例子包括自动图表审查、质量监督和信号检测、质量审查的自动化以及患者“数字孪生”的使用。这些用例中的每一个都涉及重叠但不同的法律和伦理问题。

特别是,在人类研究的背景下,数字孪生的使用是人工智能的一个复杂应用和伦理考虑。食品和药物管理局(FDA)在关于药物和生物制品开发中人工智能/机器学习使用的讨论文件中将数字孪生定义为“一个集成的多物理、多尺度、概率模拟的复杂系统,使用最佳可用数据、传感器和模型来反映其对应孪生的行为。”在创建患者的数字孪生时,组织可以开发能够动态反映个体分子和生理状态随时间变化的表示或复制品,最终创建一个记录,描述如果个体例如接受了安慰剂而不是研究药物可能会发生什么。数字孪生的使用尤其在同意方面提出了一些有趣的问题,我们将在下面进一步讨论。

这次介绍提醒组织应该从个体用例的角度考虑人工智能的法律和伦理问题,而不是采用一刀切的政策和法规。虽然组织多年来一直在使用人工智能来提高研究的管理效率,但这些用途现在包括研究创建和进行的更多实质性方面。更广泛地使用人工智能来促进和推动研究的这些方面要求组织调整他们评估这些用例的各种挑战的方式,并实施适当的设计和治理控制。

数据去识别化是否还有意义?

多位演讲者指出,《共同规则》、《贝尔蒙报告》和《赫尔辛基宣言》中嵌入的自主和自我决定原则使得在将人工智能作为人类受试者研究的一部分使用时,隐私和保密性成为首要关注的问题。特别是在研究中的人工智能模型开发,带来了严重的隐私、保密和透明度挑战。马萨诸塞州综合医院布莱根人类研究事务部的高级 IRB 主席 Benjamin C. Silverman 医学博士评论说,使用人工智能进行任何大规模项目基本上都需要使用大量数据集,通常包含患者特定数据,来构建、训练和验证人工智能模型,以及共享和组合这些数据集。

一般来说,组织、IRB 和法规在允许道德使用和共享个人数据时长期依赖数据去识别化的概念。然而,正如我们在“2024 年医疗保健隐私与安全:六个关键主题观察”一文中所讨论的,将个人去识别化数据集与其他数据集结合起来比以往任何时候都更容易。数据收集、数据存储和访问以及数据使用方面的技术进步以及对大量数据的需求,从隐私角度进一步使事情复杂化。神经网络特别容易记住训练数据和增强模式识别,更快更准确地匹配。人工智能在不同数据库之间建立联系的能力也使得依赖数据去识别化作为真正的隐私保护机制变得更加困难。这些问题与人类受试者研究特别相关,因为很难划定可识别数据与不可识别数据之间的界限,因此,IRB 可能不再能够清楚地区分什么是可识别信息,从而确定某项活动是否符合《共同规则》下人类受试者研究的定义。

新技术带来新的同意问题

关于数字孪生的使用,Lipset 提出了如果个人的数字孪生在没有该个人明确同意的情况下被邀请参加研究,会发生什么情况的问题。《共同规则》和 HIPAA 下的标准同意要求是否适用?2023 年政府问责局(GAO)的一份报告讨论了数字孪生如何有助于促进预测性和个性化医疗以改善患者结果并降低一些医疗保健成本。然而,同一份报告提到了可能导致公众信任度低的伦理和隐私问题,并引用了一家制药公司未经同意出售数字孪生的健康相关数据的假设示例。

伊利诺伊大学厄巴纳 - 香槟分校法学院的法学副教授兼 Richard W.&Marie L. Corman 学者 Sara Gerke 讨论了如何将同意使用人工智能应用于临床试验,她指出,以易于理解的语言告知参与者正在使用何种人工智能技术以及它如何应用于其个人数据的使用、所使用的人工智能模型的类型以及算法是否在代表性数据上进行训练将是有用的。

Silverman 指出,根据《共同规则》中关于个人尊重和自主的原则要求同意,将确保组织在将可识别数据用于人工智能目的方面保持透明。然而,除了在这些大型数据集中获取所有可识别数据的知情同意不切实际的现实之外,这样的要求可能导致数据集的多样性降低。例如,监察长办公室(OIG)最近关于在国立卫生研究院资助的临床试验中代表性不足的群体的报告表明,更广泛纳入种族和族裔群体的一个障碍是为英语水平有限的患者提供翻译的知情同意书的相关成本。关于同意的另一个经常出现的问题是同意的范围是否包括人工智能的使用以及是否包括选择退出的能力。例如,在欧盟的《通用数据保护条例》中,对于可能对个人产生法律效果或重大影响的自动化决策有一般禁止规定,但对于明确同意有例外。人工智能使这一例外更加复杂,因为一旦个人同意其数据用于人工智能模型训练目的,真正选择退出(即从算法和训练数据集中删除个人数据的任何痕迹)是非常具有挑战性的。

虽然与人工智能和研究相关的同意使用问题仍然是一个备受争议的话题,但与此同时,提高患者对人工智能在人类研究中的使用的认识只能建立公众信任,并有利于未来知情同意的使用。

结论

该研讨会反映了在进行人类研究时使用人工智能时,创新、实用性和监管合规性这些经常相互竞争的优先事项之间当前的紧张关系。医疗保健中围绕人工智能的监管环境的持续发展有可能帮助解决小组成员提出的一些人类研究问题。在拜登政府关于人工智能安全、可靠和值得信赖的开发和使用的行政命令一周年之际,联邦机构继续推进各自的任务,并最近报告称他们按时完成了行政命令中的所有 270 天行动。最近,HHS 创建了全机构的首席技术官、首席数据官和首席人工智能官等职位,而 FDA 在药品评估和研究中心(CDER)内创建了人工智能委员会。一些州,如科罗拉多州,正在推进自己的法规,以围绕人工智能的使用建立某些标准,而联邦层面的法规仍在制定中。更复杂的是上述联邦层面的隐私法并非为考虑人工智能的使用而制定,以及当前各州隐私法的拼凑。然而,目前,在隐私法存在和法规不断变化的情况下,许多行业内的人都在努力应对这些问题,因此他们只能根据现有环境做出判断,并了解联邦和州层面的新要求。我们将继续监测并提供有关医疗保健中人工智能使用的最新信息。

大健康
大健康