据估计,约三分之一的美国成年人会向AI寻求医疗指导,但由于诊断不准确,聊天机器人已被评为最具危害性的健康技术。
二十年来,美国人越来越依赖互联网获取医疗信息——由于担心错误信息和不必要的焦虑,医疗专业人员戏称这种习惯为"谷歌医生"。
自2022年生成式人工智能兴起以来,越来越多的互联网用户绕过"谷歌医生",转而使用AI聊天机器人。传统搜索引擎充当指向现有网站的图书管理员,而AI聊天机器人则更像一名研究助理,将大量数据综合成即时的、对话式的回答。
美国约三分之一的成年人(8500万人)现在使用AI聊天机器人获取医疗信息:诊断身体和情绪症状、管理药物以及处理健康保险索赔和账单。近一半18岁以上的美国心理健康问题患者正在向AI寻求治疗支持。在医生供应不足的农村地区,如达切斯县和哥伦比亚县,居民每周发送60万个与健康相关的咨询。
为了满足这一日益增长的需求,OpenAI在一月份推出了ChatGPT Health,随后Anthropic推出了Claude for Healthcare。两者都邀请用户分享个人医疗史,以便提供定制化的答案——这些答案来源于患者门户网站、健身应用程序和保险记录。这些聊天机器人随后可以解释症状、提供用药提醒并给出个性化的健康建议。
但存在一个危险的问题:AI聊天机器人也可能给出不准确、过度迎合的指导。这一风险使它们登上了紧急护理研究所2026年最具重大健康技术危害榜单的首位。
聊天机器人通过研究大量人类语言来工作,然后利用这些知识预测句子中接下来应该出现哪些单词——但它们没有上下文来准确理解用户的意思。它们被编程为听起来自信,并始终提供解决方案——即使这个方案不可靠。研究表明,聊天机器人会产生"幻觉",提出错误的诊断,建议不必要的检查——有时甚至"发明"人体部位——而且完全确信。
在2026年2月《自然医学》杂志发表的一个令人担忧的例子中,一名患者询问了严重的头痛和颈部僵硬问题——这是威胁生命的脑膜炎的典型症状——而聊天机器人建议在黑暗安静的房间休息,而不是建议立即进行紧急护理。
优先考虑用户满意度导致了聊天机器人的谄媚行为——AI模型过度验证或反映个人信念的倾向。研究人员警告,这种行为可能增加自毁思想,并使用户与现实世界的支持隔离,这些因素最近与青少年自杀有关。
包括伊利诺伊州和内华达州在内的几个州最近通过了限制AI用于心理健康治疗的法律。纽约州参议员Michelle Hinchey (SD-41)共同发起的一项法案将使公司在AI聊天机器人提供未经授权的持证专业建议(包括法律和医疗建议)时承担责任。
关于AI平台如何处理个人医疗记录,也存在重大担忧。健康聊天机器人在服务条款中包含隐私保证,但它们不受《健康保险可携性和责任法案》(HIPAA)的约束,因此用户面临在网络上泄露敏感信息的风险。
为了获得最佳效果,请使用健康聊天机器人获取健康提示、澄清医学术语或生成问题列表以简化临床预约。
切勿完全依赖AI聊天机器人的建议:在采取重大行动前,应与医疗保健提供者讨论医疗问题。如果您选择让聊天机器人诊断您的症状,请要求提供可能性列表——而不仅仅是一个确定的答案。提供您舒适的个人详细信息,如症状、家族史和当前用药情况。要求提供基于证据的来源,如学术期刊或可靠的医学网站(.org或.edu)以确保准确性。要求更深入的细节,例如"给我前五个例子,并解释为什么一个比另一个更好"。
对于紧急情况,如胸痛或呼吸急促,请跳过聊天机器人,直接拨打911。如果您不确定是否处于紧急情况,请联系您的主要医疗提供者、拨打24小时护士热线(查看您的保险卡)或前往急诊中心。
玛丽·詹金斯医生是《先驱报》的撰稿人和董事会成员,在纽约州担任家庭执业医师近40年后退休。
【全文结束】

