Bixonimania是一种虚构疾病——但ChatGPT却向数千人作出诊断,其他AI也这样做‘Bixonimania’ Is a Fake Disease—But ChatGPT Diagnosed It to Thousands, Other AI Did Too - Nurseonestop

环球医讯 / AI与医疗健康来源:nurseonestop.org美国 - 英语2026-05-14 16:24:46 - 阅读时长5分钟 - 2054字
一项发表在《自然》杂志上的调查揭示,包括ChatGPT、Google Gemini、Microsoft Copilot和Perplexity在内的主流AI聊天机器人都曾自信地向用户介绍一种根本不存在的疾病"Bixonimania"。研究人员虚构了这种眼部疾病来测试AI系统是否容易被诱导传播虚假医疗信息。结果显示,这些AI不仅重复了虚假诊断,还详细阐述症状、提供临床建议,甚至推荐患者去看眼科医生。随着ECRI将AI聊天机器人误用列为2026年健康技术首要隐患,这一发现对一线护理人员敲响了警钟,提醒他们警惕AI生成的医疗信息可能对患者安全造成的威胁。
bixonimaniaAI医疗错误信息虚假医疗信息患者安全ECRI健康技术隐患护士临床引导AI医疗建议医疗信息幻觉
Bixonimania是一种虚构疾病——但ChatGPT却向数千人作出诊断,其他AI也这样做

一项发表在《自然》杂志上的新调查揭示,包括ChatGPT、Google Gemini、Microsoft Copilot和Perplexity在内的主要AI聊天机器人都曾自信地向用户讲述一种根本不存在的疾病。这种被称为"bixonimania"的病症完全是由一位研究人员捏造的,目的是测试AI系统是否容易被欺骗而传播虚假医疗信息。

对于医疗保健领域的任何人来说,这些结果都令人震惊。这些聊天机器人不仅重复了虚假诊断,还对其进行了详细阐述,提供了类似临床的建议,甚至建议患者去看眼科医生。对于已经要处理更多"通过谷歌搜索症状"的患者问题的护士来说,这个实验是关于患者安全面临的新且日益增长威胁的警醒。

随着ECRI将AI聊天机器人误用列为2026年健康技术首要隐患,对于一线患者护理的护士来说,风险再高不过。

瑞典哥德堡大学的医学研究人员Almira Osmanovic Thunström于2024年初启动了这项实验。她创造了一种虚构的眼部疾病"bixonimania",描述为由移动设备发出的蓝光照射引起的眼睑变色和眼睛疼痛。然后,她将两篇虚假的学术论文上传到预印本服务器,以测试AI聊天机器人是否会吸收并重复这些虚假信息。

这些论文充满了明显的警示信号,几乎不可能被忽视:

  • 虚构的主要作者据称在不存在的"加利福尼亚Nova City"的"Asteria Horizon University"工作。
  • 致谢部分感谢了"星际舰队学院"(USS Enterprise上)的"Maria Bohm教授",资金由"Professor Sideshow Bob Foundation for its work in advanced trickery"提供。
  • 论文甚至直接声明"本文完全是编造的"。

Thunström特意选择了"bixonimania"这个名称。后缀"-mania"仅在精神病学中使用,因此没有合法的眼部疾病会使用这个标签。

尽管研究论文中包含了这些明显的警示信号,AI系统仍出现了惊人的失败:

  • Microsoft Copilot 宣称"bixonimania确实是一种引人入胜且相对罕见的疾病"。
  • Google Gemini 告诉用户"bixonimania是由过度暴露于蓝光引起的疾病",并建议人们去看眼科医生。
  • Perplexity AI 走得更远,告诉一位用户全球有9万人正遭受这种疾病的折磨。

bixonimania实验并非孤立事件。其他研究表明,当源材料看起来专业时,大型语言模型特别容易受到医疗错误信息的影响。

  • 一项研究检查了20种不同的LLM,发现当文本格式类似于临床论文或医院出院记录时,与社交媒体帖子相比,AI聊天机器人产生幻觉并对错误信息进行详细阐述的比率更高。

研究人员Omar在《自然》报告中指出:"当文本看起来专业且像医生所写时,幻觉率会增加。"

现实世界的后果已经显现:

  • 印度Maharishi Markandeshwar医学科学与研究所的三名研究人员在Springer Nature出版的同行评审期刊《Cureus》上发表了一篇论文,引用了bixonimania预印本作为合法来源。
  • 一旦恶作剧被发现,该论文随后被撤回。

问题远不止于一种虚假疾病。ECRI的2026年健康技术隐患报告显示,聊天机器人建议了错误的诊断,推荐了不必要的检测,推广了不合格的医疗用品,甚至在回应医疗问题时编造了不存在的解剖结构。所有这些都以一种自信、权威的语气呈现,使AI的回应极具说服力。

风险的规模是巨大的。根据OpenAI的分析,每天有超过4000万人向ChatGPT寻求健康信息。随着不断上涨的医疗成本和诊所关闭减少了获得医疗服务的机会,更多患者可能会将聊天机器人作为专业医疗建议的替代品。

这个故事对护士很重要,因为你们是最有可能遇到在进门之前已经咨询过AI聊天机器人的患者的医护人员。患者可能会确信自己患有一种他们在ChatGPT或Gemini上读到的疾病,包括由无法区分真实疾病和由"Professor Sideshow Bob Foundation"资助的疾病的系统生成的症状和治疗建议。

护士应该准备好温和地引导那些提出AI来源的健康声明的患者,利用这个机会来强化专业临床判断的价值。ECRI建议医疗机构建立AI治理委员会,为临床医生提供AI素养培训,并定期审核AI工具的性能。如果您的机构尚未开始这些对话,现在就是倡导它们的时机。

🤔 您是否遇到过患者向您提供从AI聊天机器人获取的医疗信息?您是如何处理的?请在下方评论中分享您的经验。

【全文结束】