谷歌云医疗主管Aashima Gupta分享了她对人工智能进展的兴奋之情,并讨论了谷歌在AI产品方面的最新动态。技术公司正在努力让医疗公司采用人工智能工具,希望通过吸引行业降低成本和减轻临床负担的需求来增加收入。
谷歌就是其中之一。这家搜索和云计算巨头在过去几年中推出了一系列医疗AI产品,包括专门针对医疗数据训练的大规模语言模型Med-PaLM、为医疗机构提供的生成式AI产品以及帮助公司创建自己的AI代理的平台。谷歌还提供了一种工具,允许临床医生搜索和回答患者笔记和其他医疗文档中的问题。该产品名为Vertex AI Search for Healthcare,在去年3月推出后迅速发展。本月早些时候,谷歌宣布Vertex AI Search已成为多模态工具,意味着它现在可以理解图像和文本,从而能够从图表和扫描中提取相关信息。
谷歌已与主要的电子健康记录(EHR)供应商和领先的医疗系统达成协议,将其AI集成到他们的工作流程中。但并不是所有人都对AI充满热情,尤其是随着模型变得更加复杂,出错的可能性也在增加。担忧包括幻觉(当AI编造答案时)、遗漏(当AI遗漏重要信息时)和模型漂移(当AI随着时间推移变得不那么可靠时)。与此同时,监管不足和缺乏监管也阻碍了AI的采用,因为行业面临着准确性、隐私和偏见等重大问题。
Healthcare Dive采访了谷歌云医疗主管Aashima Gupta,讨论了谷歌在医疗AI方面的工作及其未来发展方向——包括AI如何从任务助手演变为临床医生的协作伙伴、特朗普政府带来的不确定性以及她对代理AI的期待。
HEALTHCARE DIVE:Vertex AI Search for Healthcare现在可以理解图像。为什么这个更新是必要的?
AASHIMA GUPTA: 医疗信息以不同的形式和类型分散存在。例如,在年度糖尿病足部检查中,医生会在脚图上标记出哪里有老茧、前期溃疡和溃疡,使用不同的符号。医疗领域充满了这样的检查。现在,借助多模态功能,您可以看到并理解这张脚图,提取其中的信息,包括任何潜在的溃疡,并自动将其放入医疗记录中。这节省了临床医生的时间,因为他们不需要自己解读这些信息。
医疗行业有大量的文书工作。我们经常谈到职业倦怠。这些都是我们希望添加到Search中的创新,以减少这种负担。去年,我们说Search是“语义”的,意味着它知道人们在说“糖尿病”或“A1C”时的意思——它知道临床概念及其相关性。现在我们将这一点应用到检查室中包含不同图片的表格中。因此,我们的结果更加准确和有用。
还有哪些输入可能会添加到搜索和回答工具中——声音?
没错。我们将继续添加不同的模态。例如声音和视频。
在医疗保健方面,谷歌还有什么让你感到兴奋的工作?
我们非常兴奋的是代理AI。过去几年主要是关于生成式AI,这是基于任务的——“给我一份出院总结。给我一份护士交接报告。写一份转诊信。”
代理AI是一个飞跃,因为它可以提前思考多个步骤。它可以为实现目标规划独特的步骤。
想象一下在医疗工作流程中的应用。假设我想在我的收入周期中找出某个CPT代码在支付方类型、市场等方面的差异——这是一个多步骤的过程。这就是代理AI所能提供的。想象一下数百个代理帮助护士和医生完成他们的工作。
鉴于许多公司都在提供代理AI,谷歌的简短介绍是什么?
我们认为需要集中协调和管理,这是我们提供的平台,我们将给代理提供工具。
因此,如果一家公司正在构建自己的第一方代理,他们将拥有三样东西:使用[谷歌的大规模语言模型系列] Gemini的能力、基于临床知识的搜索功能以及一个协调层。
我们认为人们有选择权。有些人真的想自己构建。有些人想要合作伙伴。如何组织这一切?这就是我们想要做的地方。
谷歌没有公开使用其AI的医疗组织数量。你如何描述采用情况?
我们与Basset Health、Highmark Health、Mayo Clinic、HCA等机构建立了合作关系,这些机构正在使用生成式AI来简化预先授权提交、填补筛查空白、增强放射学工作流程等。
医疗行业曾经在技术采用方面落后。但这种AI有所不同——它实际上进入了后台、收入周期、索赔等领域,以解决职业倦怠问题。您会看到这一进程正在加速。您会看到生成式AI试点项目正从实验阶段转向规模化。
至于代理AI,我认为医疗公司确实在适应它。但这还是一个较新的领域。
尽管生成式AI容易出错,但它正在更深入地融入医疗工作流程。谷歌是否会跟踪其AI产品的错误率?
不仅是我们——客户也在建立防护措施。例如,在HCA,我们与他们合作开发了一个非常强大的评估框架,不仅是为了捕捉错误,还包括——这个模型可靠吗?它是否在幻想?是否遗漏了什么?因此,我们提供了用于评估框架的工具,所有这些都有一个人类在循环中收集反馈,然后这个反馈循环使模型更加有效。这就是让我感到安心的地方。这是最佳实践的部署。
但不会共享有关准确性的数据?它是否足够准确,以至于你们对增加采用感到放心?
我们的医疗系统已经将人类纳入循环,并且围绕这一点进行了变革管理。仅靠技术是不够的。你需要强大的变革管理,确保有人在循环中进行评估。这些过程在引入AI之前就已经到位。
有一些检查措施,如接地(即引用AI获取信息的来源),这有助于防止幻觉。对于遗漏,当AI遗漏了一些内容时,这就是我们在评估框架中看到的情况。我们会说,“好的,这个结果是否遗漏了重要的内容?”最终,在经过几次带有人类监督的反馈循环后,模型学会了,下一次情况会更好。
此外,用例也很重要。这就是为什么AI更多地用于行政任务。
拜登政府曾致力于制定联邦医疗AI治理框架,但特朗普取消了这些努力,而是专注于放松监管。你怎么看待这种方法?
在谷歌,我们有自己的AI原则和流程。虽然自我监管很好,但我们认为这还不够。我们认为AI太重要了,不能不受监管。我就说到这里。
你认为特朗普政府会在监管方面采取什么行动吗?
目前很难说。我认为我们正在试图弄清楚如何最好地与他们合作,向他们分享我们的最佳实践。现在还为时尚早。我认为整个医疗界都在等待这一点。
(全文结束)


