(乔纳森·拉/努尔摄影 via 盖蒂图片社)当朱迪思·米勒7月份进行常规血液检查时,她当天就收到手机提醒,告知她的检测结果已在线发布。因此,当她的医生第二天发消息说她的总体检查结果良好时,米勒回复询问报告中列出的高二氧化碳水平和低阴离子间隙情况。
这位76岁的密尔沃基(Milwaukee)居民在等待医生回复期间,做了一件越来越多患者在无法联系到医疗团队时会做的事情——她将检测结果输入Claude,并要求这款AI助手评估数据。
"Claude帮助我清晰理解了这些异常情况,"米勒表示。这款生成式AI模型没有报告任何令人担忧的问题,因此她在等待医生回复期间并不焦虑。
由于联邦法律要求医疗机构立即发布电子健康信息(如医生就诊记录和检测结果),患者现在可以通过MyChart等在线患者门户以前所未有的方式访问自己的医疗记录。2023年发表的一项研究发现,96%接受调查的患者希望立即获取自己的医疗记录,即使其医疗服务提供者尚未审阅这些记录。
许多患者正在使用大型语言模型(LLMs),如OpenAI的ChatGPT、Anthropic的Claude和谷歌的Gemini,来解读自己的医疗记录。然而,这种帮助也伴随着一些风险。医生和患者权益倡导者警告称,AI聊天机器人可能产生错误答案,且敏感医疗信息可能无法保持私密。
尽管如此,大多数成年人对AI与健康持谨慎态度。根据KFF在2024年进行的一项民调,56%使用或接触AI的人对AI聊天机器人提供的信息准确性缺乏信心。KFF是一家包含KFF Health News的健康信息非营利组织。
"理论上,大型语言模型非常强大,可以提供很好的建议,但根据提示方式的不同,它们也可能给出极其糟糕的建议,"马萨诸塞州贝斯以色列女执事医疗中心(Beth Israel Deaconess Medical Center)的内科医生、哈佛医学院(Harvard Medical School)生成式AI指导小组主席亚当·罗德曼表示。
科罗拉多州UCHealth的神经放射科医生贾斯汀·洪斯表示,对于没有医学背景的患者来说,很难判断AI聊天机器人是否出错。
"最终,对大型语言模型总体上仍需保持谨慎。随着最新模型的出现,这些担忧正变得越来越不突出,但尚未完全解决,"洪斯说。
罗德曼表示,在过去六个月中,他注意到患者使用AI的情况激增。在一个案例中,一名患者在MyChart上截取了医院的实验室检测结果,然后上传到ChatGPT,以便在就诊前准备问题。罗德曼表示,他欢迎患者向他展示如何使用AI,他们的研究为讨论创造了机会。
根据密歇根大学(University of Michigan)最近的一项民调,约七分之一的50岁以上成年人使用AI获取健康信息,而KFF的民调显示,四分之一的30岁以下成年人会这样做。
利用互联网为自己争取更好的医疗服务并不新鲜。患者传统上使用WebMD、PubMed或谷歌等网站搜索最新研究,并在Facebook或Reddit等社交媒体平台上向其他患者寻求建议。但AI聊天机器人能够在几秒钟内生成个性化建议或第二意见的能力是新颖的。
OpenNotes(贝斯以色列女执事医疗中心倡导医疗透明度的一个学术实验室)的沟通与患者倡议总监莉兹·萨尔米曾想知道AI在解读医疗记录方面,特别是对患者而言,表现如何。
在今年发表的一项概念验证研究中,萨尔米和同事们分析了ChatGPT、Claude和Gemini对患者关于临床记录问题的回答准确性。萨尔米表示,这三个AI模型表现良好,但患者提出问题的方式很重要。例如,要求AI聊天机器人扮演临床医生角色,并一次只问一个问题,可以提高其回答的准确性。
萨尔米表示,隐私是一个值得关注的问题,因此从提示中删除姓名或社会保障号码等个人信息至关重要。罗德曼表示,数据直接发送给开发AI模型的科技公司,他补充说,他不知道有任何公司符合联邦隐私法或考虑患者安全。OpenAI首席执行官萨姆·奥尔特曼上个月在播客中警告不要将个人信息输入ChatGPT。
"许多刚开始使用大型语言模型的人可能不了解'幻觉'问题,"萨尔米表示,她指的是看似合理但不准确的回应。例如,据美联社报道,医院使用的AI辅助转录工具OpenAI的Whisper在转录中引入了一种虚构的医疗治疗方案。
萨尔米和癌症幸存者、患者权益倡导者戴夫·德布伦卡特表示,使用生成式AI需要一种新型的数字健康素养,包括以特定方式提问、用其他AI模型验证回应、与医疗团队沟通以及在线保护隐私。
使用AI来解释检测结果的不仅仅是患者。斯坦福医疗保健公司(Stanford Health Care)已推出一款AI助手,帮助其医生起草临床检测和实验室结果的解释,以便发送给患者。科罗拉多研究人员研究了ChatGPT生成的30份放射学报告摘要的准确性,以及四名患者对这些摘要的满意度。在患者提供的118份有效反馈中,108份表示ChatGPT摘要澄清了原始报告的细节。
但洪斯表示,ChatGPT有时会过度强调或淡化发现结果,且有少量但相当数量的反馈表明,患者在阅读摘要后反而更加困惑。洪斯参与了这项预印本研究。
与此同时,在MyChart上等待四周并收到米勒的几条后续消息后,米勒的医生重新安排了她的血液检查和米勒建议的额外测试。结果正常。米勒松了一口气,并表示由于她的AI查询,她对自身健康状况有了更充分的了解。
"在这方面,这是一个非常重要的工具,"米勒说,"它帮助我组织问题、进行研究,使医患关系更加平等。"
【全文结束】