英伟达的伊娃-玛丽亚·亨佩表示,通过常规自动化,人工智能协作可优化生命科学研究,使人类专家得以专注于复杂战略、伦理问题和数据稀缺领域的探索。
在本次关于2025年欧洲国际制药原料展(CPHI Europe)"下一代研发中的人工智能现状"演讲的第三部分访谈中,英伟达医疗健康与生命科学部门负责人伊娃-玛丽亚·亨佩强调了整合人工智能(AI)的战略必要性,同时必须保持关键的人类监督并解决数据主权相关的地缘政治关切。她指出,未来将涉及一个真正的协作框架,其中技术优化 routine 任务,使人类研究人员得以专注于复杂决策。亨佩特别强调,欧洲在为医疗健康与生命科学领域开发可信、伦理和主权AI方面正发挥日益重要的作用。
在这一协作模式中,亨佩表示,AI将负责管理高通量活动,例如数据挖掘、处理海量数据集、早期候选对象筛选以及执行超越人类能力的广泛文献综述。相反,她着重指出人类专业知识的必要性,尤其是在解释复杂结果、制定实验策略和确保伦理标准方面。亨佩补充道,AI在探索数据稀缺的新领域时存在核心局限;由于AI从根本上依赖数据,当知识缺口存在时,人类专家必须介入。总结这一关键伙伴关系时,她强调:"人类专业知识对于解释复杂结果、提出实验策略,尤其是确保伦理标准,仍然至关重要。"
进一步探讨高级应用时,亨佩指出AI代理作为配备记忆和工具的推理模型在多步骤任务中的潜力。她解释道,一个AI代理可将研究问题转化为文献搜索、分析发现、生成假设,并可能启动虚拟筛选工作流程以创建分子变体,最终为研究人员汇总成综合报告。从地缘政治角度看,亨佩表示,日益增长的相互依赖与主权关注意味着通过构建主权AI模型帮助欧洲生物制药企业保障敏感数据安全,同时不牺牲大规模生物建模能力。尽管目前欧洲AI计算份额仅约4%,但包括公私合作伙伴关系在内的倡议正在推进,旨在开发AI基础设施和"AI数据工厂",将非结构化信息规模化转化为洞见,从而推动伦理与主权AI的领导地位。
访谈实录
编者注:本实录为原始音视频内容的直接、未经编辑的转录稿。可能包含错误、非正式语言或原始录音中的遗漏。
"实验环中始终需要人类或实验本身。在某种程度上,这正是我喜爱本领域AI的原因——你始终拥有实验作为反馈,判断方向是否正确。因此,我预见的未来是一个真正协作的未来:AI将驱动 routine 部分的自动化,例如数据挖掘、处理海量数据、早期候选筛选以及完成超越人力的文献综述,以发现更多论文中的信号。但人类专业知识对于解释复杂结果、提出实验策略,尤其是确保伦理标准,仍然至关重要。正如我先前所述,必须意识到AI的局限性,特别是在数据稀缺领域,AI能力受限。AI基于数据,而我们旨在探索新事物,因此这些领域天然数据较少。此时无法像在研究充分的领域那样依赖AI,这正是人类专家介入之处。我认为更多 routine 步骤将被自动化,但对于细微差别、创造力乃至大胆决策,人类监督环将必不可少。"
"地缘政治方面也涉及主权问题。随着大型地缘政治发展,相互依赖与主权问题日益凸显。我们在欧洲正帮助欧洲制药企业构建主权AI模型,使其既能保障敏感数据安全,又不牺牲大规模生物建模能力。这也延伸至AI基础设施领域,我们相信欧洲有机会在医疗健康与生命科学的可信、伦理和主权AI领域引领全球,这将建立在强有力的监管框架和不断增长的AI基础设施之上。目前欧洲AI计算份额约4%,但这一状况正在改变,我们看到大量倡议涌现——包括公共部门驱动及公私合作伙伴关系——旨在解决此问题,建立AI工厂和AI数据工厂,将非结构化信息在欧洲规模化转化为洞见。"
"另一个我们非常感兴趣的领域是AI代理。这近期是个流行词,但AI代理本质是配备记忆和工具的推理模型,可用于向AI分配多步骤任务。例如文献综述:若赋予AI代理访问PubMed或其他文献数据库的权限,你可提出问题,它将问题转化为文献搜索,分析结果生成假设,甚至进一步添加虚拟筛选工作流程——当AI推断出目标蛋白特性及标准护理分子后,可通过虚拟筛选工作流程创建分子变体,深入探索该空间,最后汇总成报告。研究人员可据此继续工作;结合'实验环中实验室'概念,甚至可设想第二步——虽未完全实现但正在接近——能否连接自动化实验室,使其自主运行实验?或许仅需人类进行最终监督,避免实验室订购昂贵试剂或化合物。这正是我们预见的未来发展方向。"
【全文结束】


