AI聊天机器人轻信虚假疾病与伪造研究——专家警告勿从聊天机器人获取医疗建议AI chatbots fall for fake diseases and phony studies — as experts warn against taking tips from bots - AOL

环球医讯 / AI与医疗健康来源:www.aol.com美国 - 英语2026-05-14 22:01:27 - 阅读时长3分钟 - 1424字
瑞典研究人员通过虚构一种名为"比克索尼亚症"的眼部疾病及伪造相关研究,成功欺骗了包括ChatGPT、Gemini和Copilot在内的主流AI聊天机器人,这些AI不仅接受了虚假信息,还提供严肃的医疗建议,引发专家对公众过度依赖AI获取医疗信息的担忧,同时凸显了人类在面对信息时缺乏必要的怀疑精神,这一实验揭示了AI在医疗健康领域的潜在风险和局限性,警示人们不应将聊天机器人作为医疗建议的可靠来源。
专家警告AI聊天机器人虚假疾病伪造医学研究医疗建议医学诊断眼部疾病医疗专业人员健康风险
AI聊天机器人轻信虚假疾病与伪造研究——专家警告勿从聊天机器人获取医疗建议

瑞典研究人员向AI聊天机器人输入了一个伪造的医学诊断,以及虚假的科学研究,以测试它们是否会受骗——结果它们确实受骗了。

由哥德堡大学(University of Gothenburg)的阿尔米拉·奥斯马诺维奇·通斯特伦(Almira Osmanovic Thunström)领导的团队编造了一种完全虚构的眼部疾病"比克索尼亚症"(bixonimania)——一种荒谬的虚构疾病,声称因长时间看屏幕或揉眼睛会导致眼睑发红,目的是测试大型语言模型(LLMs)是否会将这些内容视为合法的医学科学。

研究人员并没有刻意隐藏这个恶作剧。

这些虚假的2024年科学论文中包含了虚构的作者,包括一位名叫拉兹利夫·伊兹古布利耶诺维奇(Lazljiv Izgubljenovic)的首席研究员——在波斯尼亚语中意为"撒谎的失败者"。他的照片是AI生成的,进一步强调了这个玩笑。

致谢部分还感谢了"小丑库斯提教授"和星际舰队学院的一位教授提供了企业号上的实验室。

奥斯马诺维奇·通斯特伦告诉《纽约邮报》,该实验的目的并非简单地"捉弄"AI,而是"反映了人类在面对信息时已经忘记了保持怀疑"。

她选择"bixonimania"这个名字是因为它"听起来很荒谬","我想让任何医生或医务人员都清楚这是一个虚构的疾病,因为没有眼部疾病会被称为mania——那是精神科术语"。

ChatGPT、Google的Gemini、Microsoft的Copilot以及其他AI愉快地接受了这些胡言乱语,并开始提供关于比克索尼亚症的看似严肃的医疗建议——警告用户注意粉红色的眼睑、蓝光伤害,并敦促他们去看眼科医生治疗这个完全虚构的疾病。

这还没有结束。关于比克索尼亚症的博客文章出现在Medium网站上,不知何故,这些假论文甚至被同行评审文献引用。基于明显是玩笑的研究而产生的、关于一个从未真实存在的疾病的报道出现在学术网站和社交网络SciProfiles上。

《自然》杂志最终揭露了这个既有趣又可怕的实验。

社交媒体自然对此议论纷纷。

"OMG。不好,"X上的一位评论者说。

"那不是他们编造的唯一疾病,"另一位警告说。

"我以为这是关于'turbocancer'的,"第三位开玩笑说。

与此同时,真正的医生不得不进行"清理"工作。

正如达伦·勒布朗医生(Dr. Darren Lebl)指出的那样,患者越来越多地带着聊天机器人生成的"诊断"出现,准备用可能五分钟前才编造的信息挑战医疗专业人员。

奥斯马诺维奇·通斯特伦坚持认为大型语言模型在医学中仍然有其位置。

微软发言人表示:"Copilot旨在成为提供建议、反馈、一般信息和创意帮助的安全有用工具。它不能替代专业医疗咨询……我们致力于不断改进我们的AI技术。"

Open AI发言人回应:"在过去的几年中,我们的团队与数百名临床顾问合作,对为ChatGPT提供支持的模型进行压力测试,识别风险,并改进它们如何回应健康问题……在GPT-5之前的研究所反映的能力是用户今天不会遇到的。"

Google没有回应置评请求。

【全文结束】