亚当·罗德曼系波士顿贝斯以色列女执事医疗中心卡尔·J·夏皮罗教育与研究中心AI项目主管。
作为一名执业医师,我清楚地知道患者们正在使用人工智能获取医疗建议。有时迹象很微妙,比如他们带来连豪斯医生都会自愧不如的检查清单和潜在诊断列表。但更多时候,他们会直接告诉我:在见罗德曼医生前咨询过"ChatGPT医生"。数据显示,超过三分之一的美国人使用大型语言模型获取健康建议。
作为AI研究员,我认为若使用得当,这些大型语言模型将是自互联网发明以来最能赋能患者的工具。但它们也带来新且未被充分认知的风险——可能削弱患者与医生的关系,或使人们在向聊天机器人连珠炮式提问时陷入焦虑漩涡。值此医疗健康激动人心的新阶段,以下是我想让患者们了解的AI使用指南:
用AI增强而非取代医患会诊
我观察到患者使用AI的最佳方式是优化就诊准备。普通患者每年仅能获得18分钟的面对面诊疗时间。《21世纪治愈法案》虽保障了患者获取病历的权利,但绝大多数人从未查阅。即便查阅者也可能因医学术语晦涩或难以分辨重点而困惑。更糟的是,误诊或已排除疾病的错误信息可能仍滞留病历中——医生委婉称之为"病历陈规"。
AI能帮助患者理清这些混乱。假设你因顽固性咳嗽就诊,建议如下:调取病历并删除所有身份信息,将内容复制到AI工具中,同步更新当前健康状况与咳嗽症状,要求聊天机器人简洁总结信息。最后提问:"基于我的健康背景,请列出就诊时应向医生咨询咳嗽问题的三个关键点"。
识别关键健康信息
AI工具能提供专家级医疗建议,但其效果几乎完全取决于是否掌握完整的健康图景,包括基础疾病、用药情况及日常生活状态。医学生会学习聚焦哪些症状描述。为掌握描述症状的最佳方式,可要求聊天机器人"以医生身份对我进行问诊";问答过程不仅能厘清表述,还能排除可能引发不必要恐慌的其他病症。
警惕AI的讨好倾向
语言模型试图取悦用户的特性,在健康咨询场景中尤为危险。"网络疑病症"指因搜索良性症状信息,迅速陷入可怕疾病联想的现象。由于大型语言模型高度契合用户潜意识需求,它们会捕捉最能引发你共鸣的信息并持续强化,误判为你所需内容。例如可能将压力性头痛的讨论引向脑癌的详细分析,这与社交媒体算法诱导"厄运刷屏"的机制如出一辙。
【全文结束】

