从"谷歌医生"到AI驱动的聊天机器人,互联网上充斥着各种健康建议。但专家表示,对于安全的体检或诊断,最好还是交给专业人士处理。
其中一位专家是宾汉姆顿大学(Binghamton University)的研究员艾哈迈德·阿卜丁·哈梅德(Ahmed Abdeen Hamed),他最近领导了一项研究,评估人工智能在医疗领域的表现。他的团队专注于当今最受热议的工具:ChatGPT。这项研究于今年夏季发表在《iScience》期刊上,旨在回答一个关于AI的问题:ChatGPT究竟对医疗知识掌握到什么程度?
哈梅德在新闻稿中表示:"如今人们经常与ChatGPT交谈,他们会说:'我有这些症状。我是不是得了癌症?我是不是心脏骤停了?我是否应该接受治疗?'"
亚特兰大地区的Wellstar健康系统医生安德鲁·桑顿(Andrew Thornton)博士强调,虽然可以安全地使用AI和互联网获取健康信息,但患者在医疗紧急情况下绝不能依赖它们,也不应花费过多时间在网上研究。
桑顿说:"这种情况下应该立即拨打911,或找人马上送你去医院。"
ChatGPT不能替代你的医生
尽管ChatGPT在某些特定医学知识方面显示出潜力,但它尚未准备好提供准确的医疗建议。在研究过程中,哈梅德的团队对这些特定方面做出了有趣的发现,同时也证明该工具无法有效诊断用户病情。
在识别疾病术语、处方药物和基因信息方面,ChatGPT的任务完成准确率高达88%至97%。然而,AI用户通常不仅寻求健康事实,还希望获得健康指导。正是在这一点上,大型语言模型(LLM)开始出现漏洞。
哈梅德告诉《亚特兰大宪法报》(AJC):"疾病确实很容易识别,所以ChatGPT非常擅长识别和生成疾病本体论中实际存在的疾病。"
"药物和基因方面也是如此,但症状却不一样。这有点有趣,因为其中的含义确实非常重大。"
ChatGPT难以应对使用模糊或随意语言描述症状的复杂用户查询。当问题采用对话式语言时,AI往往无法准确地将症状与其潜在的医学原因联系起来。
哈梅德在新闻稿中表示:"ChatGPT使用更友好、更社交化的语言,因为它应该与普通人交流。在医学文献中,人们使用专业术语。LLM显然试图简化这些症状的定义,因为有很多人提出这类问题,所以它开始简化医学语言的正式性以迎合这些用户。"
AI不愿承认自己不知道健康相关问题的正确答案,这让桑顿感到担忧。
他说:"我认为患者非常需要了解,ChatGPT不会告诉你它向你呈现某些信息时的确信程度。它会以听起来非常自信的方式呈现信息,无论信息准确与否,它都会以同样的方式呈现。"
这种令人信服的AI自信可能导致重大的健康风险。
人们多常寻求AI健康建议?
总体而言,人工智能的使用正在快速增长。
根据皮尤研究中心(Pew Research Center)的一项调查,约34%的美国成年人一生中曾使用过ChatGPT——是2023年的两倍。许多互联网用户也可能在不刻意寻找的情况下接收到来自AI的信息。
该中心分析了2025年3月的250万次网页访问,发现93%的特色用户在进行网络搜索时曾遇到过与AI相关的内容。约60%的这些用户仅通过使用Google搜索引擎,就访问了包含AI生成摘要的搜索结果页面。
无论是否愿意,如今AI信息在网上都很突出——这种曝光率导致许多人向这一尖端技术寻求健康建议。
参与2024年KFF健康虚假信息追踪调查(KFF Health Misinformation Tracking Poll)的约17%美国成年人表示,他们至少每月使用一次AI聊天机器人获取健康信息和医疗建议。约四分之一的30岁以下成年人使用AI获取健康指导。
桑顿还注意到,患者在体检期间更自由地谈论与健康相关的互联网搜索习惯,他表示这在急诊环境中经常发生。
他说:"我发现,就上网查询信息而言,现在的患者比10年前更加坦率。我认为这是因为他们知道我们期待这一点,而且这是如此常见的事情,所以他们直接告诉我们基于所查信息产生的担忧。"
智慧使用
虽然ChatGPT尚未准备好成为你的医生,但它有朝一日仍有可能成为强大的医疗工具。不过,目前最好还是交给专业人士处理。
桑顿说:"我认为互联网和AI平台可以用来补充信息,为患者提供关于不同疾病状态以及他们可能正在服用的药物的更多背景信息。我认为它绝不应该用于将可能的诊断缩小到患者可能正在经历的范围。"
"它确实应该用于获取有关不同疾病或药物的一般知识。"
【全文结束】