安大略省医生呼吁:应咨询医疗专业人士,而非仅依赖ChatGPTTalk to medical professionals, not just ChatGPT, urge Ontario doctors

环球医讯 / AI与医疗健康来源:www.cbc.ca加拿大 - 英语2025-07-30 22:18:08 - 阅读时长4分钟 - 1952字
本文讨论了ChatGPT等人工智能工具在回答患者问题时可能提供虚假信息,强调了在使用AI医疗建议时需谨慎核实,并建议患者应咨询专业医疗人员。安大略省医生警告,患者越来越依赖AI工具,这可能导致他们接受错误的或未经验证的医学建议,影响治疗决策。
健康人工智能ChatGPT患者医疗专业人士虚假信息癌症治疗医学监督聊天机器人信息核实
安大略省医生呼吁:应咨询医疗专业人士,而非仅依赖ChatGPT

ChatGPT 和类似的人工智能工具有时能够准确回答患者的问题,但加拿大医学研究人员警告称,在依据所见信息采取行动之前,必须仔细核实这些信息。

本周,安大略省医学会(Ontario Medical Association,简称OMA)举行了一次媒体简报会,讨论了从搜索引擎到社交媒体再到聊天机器人等“自助”信息来源及其影响,以及患者应采取的替代做法。

“现在就提醒人们非常重要,”北湾的精神病学家瓦莱丽·普里莫(Valerie Primeau)博士说,她负责心理健康和成瘾的住院和社区项目,“因为患者越来越依赖人工智能工具。这些聊天机器人给出令人信服且富有同理心的结果,但这些信息可能是虚假的。”

普里莫表示:“我现在有患者会向ChatGPT寻求建议并进行对话。因此,我预见我们将持续遇到这个问题,如果我们现在不加以解决并帮助人们应对这种情况,他们将会陷入困境。”

安大略省伦敦市的放射肿瘤学家大卫·德索萨(David D'Souza)博士负责癌症影像治疗的临床研究。他表示,患者对AI提供信息的解读方式可能会影响他们是否接受传统治疗。

他说:“有一位患者问我,他是否应该推迟几年再治疗已经确诊的癌症,因为他相信AI将为患者定制癌症治疗方案。我不得不说服他为何应立即接受治疗。”

鉴于消费者会使用这些工具,安大略省医学会主席扎伊纳布·阿卜杜勒拉赫曼(Zainab Abdurrahman)博士建议,如果一则帖子声称“医生一直向你隐瞒此事”,她建议查阅相关专科组织的网站,例如省级癌症护理协会的网站,以确认其真实性。

她还警告称,虚假广告,包括AI生成的图片,也可能误导患者。阿卜杜勒拉赫曼同时也是临床免疫学家和过敏症专家。

人工智能结果因缺乏细节而难以依赖

尽管技术在进步,但目前的聊天机器人通常会以看似权威的方式回答健康问题,但实际上提供的是错误信息。

在一项研究中,西安大略大学(Western University)病理与实验室医学系助理教授本杰明·陈-伊(Benjamin Chin-Yee)及其合著者将近5000份医学和科学文献摘要输入包括ChatGPT在内的AI大型语言模型,并要求它们进行总结。

他们发现,四分之三的AI版本遗漏了关键陈述中的重要部分。

陈-伊表示:“例如,期刊文章可能会说明某种药物仅对特定患者群体有效,而AI的摘要却省略了这一关键细节。令人担忧的是,当这种细节和微妙之处被遗漏时,可能误导那些试图利用这些知识来影响临床实践的从业者。”

陈-伊指出,AI是一个快速发展的活跃研究领域,更新的模型更像人类且更易于使用,但仅依赖这些工具也存在弊端。

同样,多伦多大学的医学生大卫·陈(David Chen)将聊天机器人对Reddit论坛中200个癌症相关问题的回答与肿瘤科医生的回答进行了比较。

“我们惊讶地发现,根据我们的医生团队对质量、同理心和可读性的评估,这些聊天机器人在接近人类专家水平的表现上令人印象深刻,”陈表示。

但这些实验结果可能无法反映现实世界的情况。

他说:“在没有医学监督的情况下,很难百分之百信任这些生成技术的某些输出。”他补充说,关于隐私、安全性和患者信任的问题仍未完全得到解决。

不要仅依赖一个聊天机器人

像聊天机器人这样的生成式AI技术基于模式匹配技术,根据其训练数据为特定问题提供最可能的输出。然而,在医学领域,一些不太可能但仍然重要的诊断也不应被排除。

此外,聊天机器人可能会“幻觉”——即生成听起来令人信服但错误、虚构、无意义或无关的结果。

陈表示:“已有研究指出,这些聊天机器人的‘幻觉’率可能高达20%以上,这可能导致其输出在临床上出现错误。”

心脏病专家、加州圣地亚哥斯克里普斯研究所(Scripps Research)教授兼执行副院长埃里克·托波尔(Eric Topol)博士在今年春天出版了一本名为《超级长寿者:长寿的循证方法》(Superagers: An Evidence-Based Approach to Longevity)的书籍,探讨了AI对寿命和生活质量的影响。

托波尔表示:“关于患者使用聊天机器人的案例,既有好的,也有坏的。但它尚未以一种有意义的方式系统评估,供公众使用。”

他建议人们应咨询多个聊天机器人,并验证所获得的信息是否可靠。他还建议要求引用医学文献中的参考文献,并指出有时这些引用可能是虚假的,需要验证。

托波尔表示,理想情况下,应有现实世界的测试,由数万人跟踪记录他们做了哪些检查、被诊断为何种疾病,以及使用AI和未使用AI的人的结果如何。但他指出,科技公司不太可能参与,因为每家公司都无法从中获益。

他说:“现在是一个不同的世界,你无法回到过去。关键在于如何明智地使用这些工具。”

【全文结束】

大健康
大健康