生成式人工智能(Generative Artificial Intelligence, AI)是制药业领导者关注的重要话题,因为AI有望彻底改变传统的药物发现、临床前测试和临床试验。尽管AI带来了经济利益和成本节约,但AI驱动的临床开发也带来了显著的法律风险,包括但不限于产品责任、知识产权和数据隐私风险。到目前为止,关于如何最佳管理这些法律风险的指导还很少。
根据贝恩公司(Bain & Company)2024年的一项研究,75%的制药行业领导者表示AI是最高管理层和董事会的首要任务。公司应考虑实施一个三层的自下而上的公司治理框架,以帮助董事会和管理层对AI驱动的临床开发进行适当的监督,并减轻法律风险。
第一道防线
AI驱动的临床开发具有高度专业性,公司董事会和管理层可能无法完全理解。因此,公司应设立一个常设的AI委员会,作为关键决策者的“眼睛和耳朵”。该委员会由药物开发生命周期各层级的人员以及公司发展/战略、财务、法律/合规、信息技术、政府事务和投资者关系等其他职能部门的人员组成。
该委员会是董事会和管理层监督AI驱动临床开发的第一道防线。该委员会应向最高管理层的AI委员会报告。委员会成员应有交错的任期,以确保连续性同时引入新视角。
该常设委员会的角色可以概括为四个R:记录、审查、建议和报告。
- 记录:在最近的代理季节中,股东提案越来越多地关注AI透明度报告。常设委员会应维护公司当前使用AI驱动临床开发的全面记录,并应在准备季度报告时每季度更新这些记录。
- 审查:常设委员会应每季度审查以下内容:公司当前使用AI驱动临床开发的情况,包括相关指标、护栏、政策和最佳实践;国内外相关监管体系,包括立法、司法和监管发展;以及有关公司当前和未来使用AI驱动临床开发的内部和外部提案,包括与AI公司的潜在合作。
- 建议:接下来,常设委员会应准备一套相关建议。
- 报告:最后,常设委员会应准备一份季度报告,包含其审查的关键发现和相关建议,并将其提交给最高管理层的AI委员会。
第二道防线
鉴于AI是投资者的优先事项,公司应考虑任命首席AI官。为了确保AI、科学/临床、战略和风险管理专业知识在AI决策中的充分和平衡代表,公司应建立一个最高管理层的AI委员会。
该委员会由首席AI官、首席科学官、首席医疗官、首席合规、质量和风险官、公司发展/战略负责人和总法律顾问组成。
最高管理层AI委员会的职责可以概括为四个A:授权、分析、行动和建议。
- 授权:最高管理层AI委员会有权监督常设AI委员会。
- 分析:最高管理层AI委员会分析常设委员会在其季度报告中产生的发现和建议。
- 行动:基于这些报告,最高管理层AI委员会为CEO准备季度AI执行摘要。每个AI执行摘要应讨论使用AI驱动临床开发的指标、护栏、最佳实践、政策、程序、风险管理策略和其他考虑因素。
- 建议:最高管理层AI委员会应就所有AI相关决策向CEO提供建议,包括指标、护栏、最佳实践、政策、程序和风险管理策略。
最终防线
董事会对AI驱动临床开发相关的风险具有主要监督职责。董事会的职能可以概括为四个C:关怀、能力、咨询和控制。
- 关怀:董事会成员在行使对AI驱动临床开发的监督职责时,应履行常规的信托责任。董事会应使用两个AI委员会的季度报告和执行摘要以及外部顾问的指导,建立、评估并在必要时更新AI驱动临床开发的适当使用指标和护栏。
- 能力:行使适当的关怀需要AI能力,这越来越成为投资者的首要任务。虽然一些董事会可能会选择成立单独的委员会或小组委员会以展示董事会的AI专长,但这并非必要。重点应放在个人董事层面的能力培养上。董事应通过定期审查两个AI委员会的季度报告和执行摘要并参与相关培训机会来发展其AI能力。
- 咨询:AI监管环境尚处于初级阶段且不统一,因此董事会在面对AI相关决策时应寻求外部法律和其他顾问的意见。
- 控制:董事会对AI相关风险的监督还包括披露控制风险。董事会应与公司管理层、法律、会计和投资者关系人员一起,确保公司在证券交易委员会(Securities and Exchange Commission, SEC)的AI相关披露中有适当的披露控制,以防止AI漂白——即夸大公司AI使用的现象。SEC最近优先关注这一领域,指出上市公司必须确保AI披露清晰、及时、定制化并基于合理信念。今年3月,SEC就AI漂白采取了执法行动。董事会应采取适当措施,确保对AI披露的有力控制。
AI驱动的临床开发并非不受法律风险的影响。行业领导者应考虑实施三层的自下而上的公司治理框架,以减轻这些风险。
(全文结束)


