试想这样一个场景:长时间使用电子屏幕后,你发现眼睑周围出现异常色斑,于是向ChatGPT询问病因。这款人工智能竟自信诊断出"比克索曼尼亚"——一种由蓝光暴露引发、影响九万分之一人群的罕见疾病。听起来真实可信,实则"比克索曼尼亚"纯属虚构。瑞典哥德堡大学研究员阿尔米拉·奥斯莫诺维奇·通斯特伦在2024年设下AI陷阱:她精心编造了关于该病的虚假研究,包括伪造症状数据和统计数字。尽管研究中存在引用《星际迷航》星际舰队学院等明显破绽,并明确声明研究系人为编造,但微软Copilot仍将其标注为罕见疾病,谷歌Gemini详细解释其成因,Perplexity AI引用虚假数据,ChatGPT甚至直接作出诊断。这场恶作剧传播之广,导致真实医学研究曾引用该虚假结论,后续才被迫撤回。
该事件影响波及所有使用AI进行健康咨询的智能手机用户。最新研究显示,当专门针对健康类AI系统进行测试时,88%的情况下会产生虚假信息。这些并非极端个例,而是揭示了AI处理医疗信息的根本性漏洞。截至2026年,部分平台虽有改进:ChatGPT在3月11日已标注"比克索曼尼亚"系虚构疾病(尽管仍偶尔称其为"待定亚型"),Copilot表示该病"未获广泛认可"。但这种认知不一致性恰恰凸显核心问题:人类事实核查员可能遗漏的虚假信息,正持续污染AI训练数据。伦敦大学学院的亚历克斯·鲁哈尼评价通斯特伦的实验是"揭露AI风险的典范",真正令人担忧的是,不法分子可能利用广受信赖的系统,轻而易举地散布错误医疗建议。
【全文结束】

