ChatGPT是人工智能医疗建议的未来吗?专家解析利与弊Chat GPT Health: Expert take on AI’s role in modern medicine

环球医讯 / AI与医疗健康来源:www.medicalnewstoday.com美国 - 英语2026-01-17 10:14:04 - 阅读时长7分钟 - 3495字
本文采访了西北大学临床医学人工智能专家戴维·利伯维茨医学博士,深入探讨OpenAI新推出的ChatGPT Health功能对现代医疗的影响。专家指出,该工具能帮助患者更好地准备就诊、理解健康信息,但也存在过度自信、信息不准确和隐私泄露等风险。他建议医疗专业人员遵循"准备而非诊断、始终验证、理解隐私权衡"三原则引导患者使用AI健康工具,特别强调在心理健康和生殖健康等敏感领域需格外谨慎,因为AI对话不受HIPAA保护,可能带来法律风险,且AI生成内容无法替代临床医生的专业判断和医患关系中的核心信任要素。
ChatGPTHealthAI健康建议医患关系医疗专业人员健康信息准确性隐私安全使用健康助手医疗决策HIPAA护理缺口就诊准备
ChatGPT是人工智能医疗建议的未来吗?专家解析利与弊

OpenAI最近推出了ChatGPT Health,这是ChatGPT内一项旨在支持健康与 wellness 问题的新功能。该推出的背景是,据报道该人工智能聊天机器人每天接收数百万与健康相关的问题,凸显了公众对AI驱动医疗信息日益增长的兴趣。

根据OpenAI的说法,ChatGPT Health旨在为用户提供更专注的体验,以应对健康问题、 wellness 话题和医疗疑问。

显然,对易于获取、对话式健康信息的需求正在增加。然而,尽管这些工具可能增加信息获取途径,确保准确性、公平性和负责任使用仍然是一个关键挑战。

在接受《今日医学新闻》采访时,西北大学临床医学人工智能专家戴维·利伯维茨医学博士分享了他对ChatGPT Health如何影响医患关系,以及医疗专业人员(HCPs)如何安全引导适当使用AI健康工具的看法。

问:该工具是否对医疗专业人员有益并有助于改善患者护理和互动?

利伯维茨:是的,但有重要注意事项。ChatGPT Health可以帮助患者更好地准备就诊,包括总结实验室趋势、组织问题并识别护理缺口。

这比患者带来零散的谷歌搜索结果或毫无准备要好。对医疗专业人员而言,这意味着可以将更多富有成效的就诊时间用于理解患者的价值观和偏好,以支持共同决策和更快填补护理缺口。

风险在于过度自信。患者可能认为AI合成的信息等同于临床判断或全面审查。医疗专业人员将需要发展新技能:验证患者带来的信息、纠正AI生成的误解,并识别工具遗漏了改变整个临床情况的背景。

问:您会给医疗专业人员什么建议,当他们与患者讨论ChatGPT时?

利伯维茨:承认该工具的价值,同时建立适当的期望。

我建议这样表述:"它有助于组织您的问题并理解基本概念,但它不知道只有我才能评估的事情,例如您的体格检查、您在对话中的语气,或您之前对治疗的反应。"

重要的是不要轻视使用它的患者。这表明我们没有倾听(而且这些工具正在变得更好)。相反,询问他们发现了什么以及引发了哪些担忧。将其作为讨论的起点。如果他们带来不正确的内容,应将其视为教学时刻而非纠正。

问:医疗专业人员如何建议患者安全适当地使用AI健康工具?

利伯维茨:三个原则:

准备,而非诊断

将其用于组织和提出问题、理解术语或追踪模式。

在就诊时提出有助于讨论的话题或问题是合适的,但请勿使用它来得出结论:问题出在哪里、未来会发生什么,或决定特定治疗。

在这些情况下,它将没有所需的所有信息,但通常仍会提供往往错误或不必要地引发焦虑的指导。

始终验证

任何改变医疗决策的内容都应被视为不完整AI来源的软性建议,需要您的护理团队确认。

话虽如此,护理缺口很常见,鉴于2026年的诊断和治疗复杂性,可能会有有用的指导,但请意识到真正影响决策的有用指导可能并不总是存在,或者可能被埋没在嘈杂、不适当的建议中。

理解隐私权衡

与ChatGPT共享的健康数据不受《健康保险流通与责任法案》(HIPAA)保护。

与医生或治疗师的对话不同,没有法律特权。对于生殖健康、心理健康、物质使用或其他个人关注等敏感事项,请在使用该工具前理解隐私损失。

问:医疗专业人员如何帮助减少使用AI生成健康建议时的误解?

利伯维茨:最大的误解是认为AI生成的信息等同于来自临床医生的第二意见。事实并非如此。

大型语言模型(LLMs),如ChatGPT,预测可能的文本;它们不会像训练有素的专业人员那样验证事实或权衡临床背景。医疗专业人员可以通过明确表达来帮助:"ChatGPT可以总结信息并识别模式,但它可能产生幻觉、忽略细微差别,并且无法访问您的检查结果、您与我的历史记录以及您未告诉它的内容。"

AI工具也不会像熟练的临床医生那样,在提供根据特定患者偏好定制的指导时权衡证据。AI工具的自信并不意味着正确。无论准确与否或危险错误,回应都以同等权威出现。

问:展望5年后,您认为AI将如何改变医患关系?

利伯维茨:我预计AI将成为大多数诊疗(和幕后)互动的既定层面,例如处理文档、呈现相关病史或标记潜在问题。

对患者而言,像ChatGPT Health这样的工具将越来越多地作为持续的健康助手/伴侣,帮助他们追踪、解释和准备(包括识别讨论缺口以及根据患者偏好的有益行为提示)。

与临床医生关系的核心,即信任、判断、共同决策,不会被自动化。

学会与AI辅助患者合作而非对抗的AI辅助医生,将用更少的时间进行更深入的对话。那些个人及患者避免使用AI的医生将发现患者转向别处,或者根本不告诉他们AI说了什么。

问:鉴于患者已经在线搜索健康信息,OpenAI推出ChatGPT Health现在有何重要意义?

利伯维茨:因为它将非正式发生的事情正式化了。

显然,每天已有4000万人向ChatGPT提问,包括上传实验室结果、描述症状、寻求解释。OpenAI现在正在围绕这种行为构建专用基础设施:加密空间、连接的医疗记录和明确的护栏。

《21世纪治愈法案》要求医疗系统通过标准化API向患者提供其记录的访问权限。ChatGPT Health是早期主要的消费者工具,可大规模聚合这种访问。无论医生是否喜欢,这改变了定义医患关系数十年的信息不对称,从而加速了医疗保健的民主化。

问:您说这是"从谷歌搜索迈出的重要一步"。具体是什么让它更好,又在哪里仍有不足?

什么让它更好

利伯维茨:ChatGPT跨来源综合并针对用户-患者的背景进行个性化。

患者不会得到10个带有冲突信息的蓝色链接,而是基于自身数据的连贯解释,包括随时间变化的实验室趋势、可能的药物相互作用、针对其情况的预约准备。

在哪里仍有不足

利伯维茨:它仍然可能产生幻觉。引用不可靠。它无法访问体格检查、临床整体印象、熟练临床医生在5分钟对话中收集的社会背景。

LLM输出优化的是合理性,而非准确性。这使得错误答案往往听起来比正确答案更自信。长期医生了解患者的某些关键细节可能缺失。我们的数据系统尚未完全集成,ChatGPT可能也无法像医生那样完全访问完整病历。

最大的缺口

利伯维茨:没有问责制。当我犯错时,存在机制,包括同行评审、医疗事故、执照委员会、我的专业声誉。当ChatGPT出错时,您可以点一个"不喜欢"。

问:您如何实际看待患者使用ChatGPT Health?

利伯维茨:我看到五个高价值场景:

  • 就诊前准备:"帮助我理解最近的实验室检查并为我的预约组织问题。注意任何缺口或逾期项目。"
  • 就诊后澄清:"我的医生提到了X。请再次解释这意味着什么以及我应该注意什么。"
  • 定期检查:"请每周提醒我是否有任何健康待办事项或基于我的病史应注意的特定健康行为。"
  • 系统导航:"比较我对此程序的保险选项"或"帮助我申诉此覆盖拒绝。"
  • 健康基础知识问题:如果充分基于基础医学主题,有可能增强关于一般医学主题的问答,尽管鉴于上述限制,当前症状应转至临床护理。

问:您对HIPAA保护表示担忧。患者在使用AI健康工具时对隐私的最大误解是什么?

利伯维茨:主要误解是认为任何关于健康的对话都像与医生的对话一样受到保护。事实并非如此。

HIPAA只涵盖"受保实体",这意味着健康计划、医疗保健清算所和以电子方式传输健康信息的医疗保健提供者。消费者AI工具不是受保实体。

因此,当您与ChatGPT共享健康信息时,理论上该数据可能被传票、通过法律程序获取,或尽管OpenAI有明确的政策,但可能以您未预料的方式使用。

没有类似医患特权的东西。对于敏感健康问题,特别是在当前法律环境中的生殖或心理健康问题,这一区别很重要。

问:是否有特定健康领域,如心理健康或生殖护理,您会敦促特别谨慎?

利伯维茨:绝对有。心理健康带有独特风险:AI聊天机器人已被牵涉到多起自杀案例中,它们验证了有害想法而没有适当升级。

去年发表的布朗大学研究记录了系统性伦理违规,包括强化负面信念、制造虚假同理心、不当处理危机情况。LLMs并非设计用来识别病情恶化。

生殖护理除了临床风险外还带有法律风险。在有堕胎限制的州,任何生殖健康问题的数字记录都可能成为证据。

与医生的对话不同,ChatGPT对话不受法律特权保护。我还要补充:物质使用、HIV状况、基因信息、任何涉及法律程序的内容。共同点是将披露(即使是无意的)可能带来超出临床护理后果的场景联系起来。

【全文结束】

大健康
大健康