生成式人工智能可能会为其提供的信息附上引用来源,但这些来源可能是伪造的。
关键要点:
- 已经发生了多起人工智能捏造虚假研究引用的高调案例。
- 使用人工智能时,我们应该放慢速度,检查它提供的每一个来源。
- 在阅读新闻、政治或其他报告时,要确保引用的来源是真实的。
- 记者和公众在帮助揭露虚假引用方面发挥着重要作用。
今年五月,美国“让美国再次健康”委员会(Make America Healthy Again Commission)发布了一份关于儿童健康的报告,其中包含许多虚假引用,涉及药物及其广告。
来源:cottonbro studio/pexels
在最近一起备受瞩目的人工智能失控事件中,美国“让美国再次健康”(MAHA)委员会发布了一份被描述为儿童健康进展的“清晰、基于证据的基础”的报告。然而,记者们很快发现了该报告所引用的“证据”存在诸多问题,包括无效链接以及对研究的总结歪曲了实际内容。或许最令人不安的是,有一些完全虚构的来源——据称发表在科学期刊上的研究引用根本不存在。
正如我们之前所写,生成式人工智能远非完美,“幻觉”——即不准确的信息——时有发生。我们可能认为随着人工智能的成熟,其准确性会提高,但实际上,较新的复杂模型比旧模型产生更多幻觉!
各领域中的AI幻觉
Ivan Oransky 是 Retraction Watch(一个报道科学研究撤稿情况的平台)的创始人,他告诉记者,如果儿童健康报告的作者使用了生成式人工智能,那么这些错误是意料之中的(尽管他对这份特定报告没有具体了解)。Oransky 表示:“我们以前看过这部电影,不幸的是,这种情况在科学文献中比人们希望或应该的更为普遍。”
当然,AI 幻觉并不局限于科学领域。它们横跨学科和情境。事实上,这种错误在法庭上日益成为一个问题,因为法律文件中越来越多地包含不存在的法律案例引用。例如,在五月份不到四周的时间里,法官报告至少有 23 起捏造的法律引用。此外,似乎专业人士——律师和受过训练的法律工作人员——主要负责这些虚假引用。律师可能过度依赖 AI,却没有检查 AI 产生的结果。记者指出,考虑到法官可能不会总是发现这些问题,实际的虚假引用数量几乎肯定更高。
为什么?记者推测,律师及其员工可能“缺乏资源或不知道如何进行复杂的法律研究”,或者可能“技术上有困难”。事实上,专业工作场所的技术挑战无处不在。(你可能还记得疫情期间病毒式传播的视频,那位律师因无法移除将他的脸替换成小猫的 Zoom 滤镜,不得不澄清“我不是一只猫”。)但过度依赖 AI 可能会产生比其他技术故障更严重的后果。在法律领域,法官和陪审团可能基于不准确的信息做出糟糕的决定,而负责错误的律师已被制裁。在科学和医学领域,基于虚假引用的信息可能导致危险的政策决策。
核实事实的必要性
在美国关于儿童健康的报告案例中,问题可能源于急于创建和发布报告,而未经过严格的审查和核实过程。正如教授兼营养专家 Marion Nestle 告诉记者的那样,“MAHA 报告的速度表明它不可能经过仔细审查,且一定匆匆通过了标准的审批程序。引用问题表明依赖于 AI。” 如果属实,这一过程违背了美国卫生部长 Robert F. Kennedy, Jr. 的公开原则,他负责监督 MAHA,并“一再表示将为公共卫生机构带来‘彻底透明’和‘黄金标准’的科学。”除了引用问题,Kennedy 甚至拒绝分享撰写报告的团队信息。
这类案例凸显了任何科学报告或法律简报作者进行严格事实核查的必要性,同时也强调了记者和公众自行核查事实的重要性。当某个主题对你很重要时,请点击链接。它们是否引导你到实际存在的研究?研究人员的结论是否与作者实际写的内容相符?
《今日心理学》本身对使用人工智能有严格的规定,但我们作者可以使用它来帮助生成想法、检查语法并寻求研究帮助。指示告诉我们,“大型语言模型是极好的数据来源,但是,所有从生成式 AI 中得出的陈述都需要用非 AI 来源进行事实核查,例如同行评审的文献。” 这是一个极好的标准,我们希望它能够广泛采用。在此之前,当您自行核查引用时,即使只有一篇虚假文章或被歪曲的研究结果也应该让您质疑整个报告。这并不意味着报告中的结论一定是错误的,但您不能再对作者的过程充满信心,应保持合理的怀疑态度。让我们共同努力,使科学思维再次伟大。
(全文结束)


