ChatGPT健康:你应该用AI做什么,以及一切应避免事项ChatGPT Health: What You're Meant to Use the AI for, and Everything You Should Avoid - CNET

环球医讯 / AI与医疗健康来源:www.cnet.com美国 - 英语2026-03-05 13:55:00 - 阅读时长8分钟 - 3501字
OpenAI于2026年1月推出ChatGPT健康功能,作为ChatGPT内置的医疗健康专区,旨在帮助用户理解医学信息并为医生问诊做准备。该功能经260多名跨国医生两年审核,采用更严格的医疗信息处理规则,支持连接Apple Health等应用提供个性化建议,但明确声明不可用于诊断或治疗。用户需警惕AI幻觉风险,专家强调其仅作为专业医疗的补充工具,尤其警告不可用于自我诊断或药物决策,同时需注意HIPAA合规性差异及健康数据隐私保护机制。
ChatGPT健康健康功能医疗咨询健康信息解读医疗记录健康数据连接临床医生隐私保护数据安全AI幻觉风险自我诊断健康对话
ChatGPT健康:你应该用AI做什么,以及一切应避免事项

OpenAI新推出的ChatGPT健康标签页专为各类医疗咨询打造。

如今,使用ChatGPT或Gemini等聊天机器人已成常态。除了提问常规问题或获取长文本摘要外,你可能也曾咨询过健康问题——或许想确认某个症状是否需要担忧,或深夜解读实验室报告,而此时医生并不在岗。

OpenAI 2026年1月报告显示,全球超过5%的ChatGPT消息涉及医疗保健,每周有超4000万活跃用户提问健康问题。

(声明:CNET母公司Ziff Davis于2025年起诉OpenAI,指控其在AI系统训练中侵犯版权。)

2026年1月,OpenAI推出ChatGPT健康功能,将这一习惯转化为专属服务。ChatGPT内置的"以健康为重点的功能"旨在帮助用户理解医学信息,并为与临床医生的真实对话做准备。

它并非诊断或治疗工具

那么,ChatGPT健康究竟是什么?与随机向聊天机器人提问健康问题有何区别?让我们深入解析ChatGPT中的健康标签页。

什么是ChatGPT健康?

ChatGPT健康并非像其AI浏览器Atlas那样的独立应用。它作为ChatGPT内的专属空间或标签页存在,专注于处理健康相关问题、文档和工作流程。

OpenAI在发布说明中表示,其与60个国家260多名医生合作两年,审查超60万次健康相关模型回复。因此,它不会像普通聊天那样开放式回答看似医疗的问题,而是采用更谨慎的回应方式——严格限制信息解释范围,并明确提示用户寻求专业医疗帮助。

ChatGPT健康支持网页版和移动应用。无需额外下载或注册,直接通过ChatGPT访问。根据地区和推广阶段不同,用户可加入等候名单。

截至2026年初,该功能已在美国、加拿大、澳大利亚、部分亚洲及拉丁美洲地区上线,这些区域此前已支持ChatGPT健康特性。目前欧盟、欧洲经济区、英国、中国和俄罗斯暂不可用。OpenAI表示将逐步扩展,但具体时间因各地法规和健康数据规则而异。

ChatGPT健康如何运作

ChatGPT健康使用与ChatGPT相同的底层大型语言模型。你提问,模型生成回复。其差异在于语境、依据和约束条件。

健康洞察平台Bystro AI创始人亚历克斯·科特拉表示,OpenAI并未构建新的基础医疗模型。

"他们并未创造出突然更懂医疗记录的模型。这仍是ChatGPT,只是连接了你的医疗记录。"

健康功能会调用你选择同步的数据,但需明确授权才能访问。除医疗记录外,还可连接Apple Health应用、Function的实验室报告及MyFitnessPal的饮食日志。你也能关联Weight Watchers获取胰高血糖素样肽-1膳食建议,通过Instacart将膳食计划转为购物清单,或使用Peloton获取运动推荐。这使AI能基于个人历史提供定制建议,而非泛泛而谈。

这些对话遵循更严格的语气、信息来源和回复风格规范。OpenAI表示,其通过评估框架HealthBench进行测试,使用医生编写的评分标准,在5000次模拟健康对话中应用超48000项具体指标评估质量和安全性。

你可向健康功能上传文档、使用语音指令,执行常规聊天的所有操作。若需查看多项检测结果或准备专科就诊,健康功能能追踪已共享内容并随时间整理信息。

OpenAI建议将其用于解读实验室报告、整理就诊前问题、将医学术语转为通俗语言,以及总结出院记录或保险说明等长文档。

OpenAI明确表示,该工具旨在支持而非替代与医疗专业人员的对话。它无法开具检测单、处方药物或确认诊断。若将其当作医生使用,则属于误用。

但斯坦福医疗保健临床讲师、Atropos Health首席医疗官索拉布·戈姆巴表示:"我认为准备和教育行为本身已跨越边界,成为医疗建议。"

健康功能将对话、连接应用、文件及专属记忆与主聊天分离,确保健康细节不流入ChatGPT其他部分。但健康功能可调用常规聊天的记忆。例如,若你提及近期搬家或转为纯素食等生活方式改变,健康功能会利用该背景使对话更相关。

它还能追踪长期模式。若连接Apple Health,可查询睡眠趋势、活动规律等指标,并用此总结与医生沟通。

ChatGPT健康与医疗版ChatGPT并非同一产品

ChatGPT健康是面向个人健康的消费者功能。OpenAI帮助中心指出,HIPAA(《健康保险流通与责任法案》)不适用于健康等消费者健康产品。该法案旨在联邦层面保护患者敏感健康信息未经同意不得披露。

另需注意,OpenAI为需要符合监管临床使用控制及支持HIPAA合规的机构提供"ChatGPT for Healthcare"服务,包括业务关联协议(如医疗机构与计费公司间的合同)。

若你使用ChatGPT健康,即使能连接医疗记录,也并非接入医院系统。你使用的是OpenAI控制的、具有额外保护的消费者产品。因此勿假设"健康功能"自动等同于符合HIPAA。

隐私与数据控制

OpenAI表示,健康功能在ChatGPT现有控制基础上增加额外保护,包括"定制加密和隔离措施,确保健康对话受保护且独立分区"。

OpenAI发言人告诉CNET,ChatGPT中的对话和文件默认在静态和传输中加密,健康功能因健康数据敏感性而增设分层保护。发言人补充称,任何员工访问健康数据仅限安全操作,且比常规产品数据流更受限制、目的更明确。

科特拉指出:"当消费者听说某物已加密,常认为无人能查看。但事实并非如此。静态加密不意味公司自身无法访问数据。"

你可断开应用连接、移除医疗记录权限并删除健康记忆。OpenAI首席信息安全官戴恩·斯塔基表示,健康对话默认不用于训练基础模型。

然而,"比常规聊天更受保护"不等于零风险。即使强大安全措施也无法消除在线存储敏感健康信息的所有风险。这正是隐私专家敦促用户谨慎上传完整医疗记录至AI工具的原因之一。

局限性与安全隐忧

ChatGPT健康能助你理解信息,但仍可能出错。人们可能轻信其答案。当今社会追求快速解答,而AI在应谨慎时也可能显得极具说服力。不出所料,患者安全非营利组织ECRI将AI聊天机器人列为2026年头号医疗技术隐患

AI"幻觉"(自信输出错误细节的习惯)在医疗领域比要求"总结PDF"时严重得多。若工具完全编造研究、误读检测值或夸大症状意义,可能严重危害健康。

科特拉表示:"对消费者最大的危险在于,除非具备医学背景,否则很难判断其回答何时正确、何时错误。"

当被问及幻觉率时,OpenAI发言人称驱动ChatGPT健康的模型在棘手医疗对话中"大幅降低"幻觉及其他高风险错误。据其内部HealthBench评估,GPT-5在困难健康场景中将幻觉减少八倍,比GPT-4o在潜在紧急情况下错误减少50余倍,并在调整全球健康背景时未检测到失败。

公司还表示,新模型在不确定时更可能追问,从而降低自信但错误回复的风险。

戈姆巴对CNET表示:"开发这些工具的公司需说明已建立此类制衡机制或基准,以确保回答质量。"

OpenAI强调健康功能不用于诊断或治疗,应支持而非取代临床护理。

科特拉指出医疗保健复杂且高度监管,此类工具"可能很棒,但也可能不负责任",因仍存在诸多隐患。

是否应该使用?

即使此前并非合适场景,人们早已用ChatGPT咨询健康问题。因健康功能为医疗话题增设更严护栏,相比标准聊天可能略安全。据美国医学会调查,医生在实践中使用AI的比例从2023至2024年几乎翻倍(受访医生超1100名)。

戈姆巴认为传统医疗与AI的互动将长期存在,但"仍有改进和获益空间"。许多人无法可靠获取常规临床护理,若大型语言模型至少能帮助分诊是否需看医生,这本身就意义重大。

若谨慎分享数据,该功能可能有用。你可用健康功能翻译医学术语或草拟问题,避免10分钟就诊时慌乱忘词;也可提问饮食运动等低风险问题。但务必通过权威来源或专业人士验证信息。切勿用其自我诊断、决定用药或解读严重症状。

科特拉强调:"医疗保健不同于编程或写作。当它失效时,会对人类造成真正危险。"

ChatGPT健康能助你理解信息,但无法为你的健康负责。与大多数AI工具一样,其价值取决于你对自身局限性的认知程度。

【全文结束】