一项新的研究表明,领先的医学期刊在同行评审中使用人工智能(AI)的政策存在分歧,保密问题成为禁止使用AI的主要驱动力。据最新发表在《JAMA Network Open》上的研究,前100名医学期刊中有78%提供了关于AI辅助同行评审的指导。然而,这些政策差异很大,大多数政策集中在保护保密性上。研究发现,前100名期刊中有46本明确禁止在同行评审中使用AI,而32本允许在严格条件下有限使用,例如要求审稿人披露AI的参与并尊重保密性和作者权利。
尽管生成式AI有可能提高评审效率,但其固有问题仍令人担忧,可能导致偏见和保密性泄露,作者写道。在提供AI指导的期刊中,91%禁止将手稿相关内容上传到AI工具,反映出对数据泄露或隐私侵犯的担忧。流行AI工具如聊天机器人和大型语言模型(例如ChatGPT)分别被47%和27%的指导提及。
为什么期刊的AI政策会有如此大的差异?出版商和地区的政策有所不同。Wiley和Springer Nature允许有限使用AI,而Elsevier和Cell Press则维持更严格的禁令。国际医学期刊比编辑部位于美国或欧洲的期刊更可能允许有限使用,而混合出版商在禁止AI使用方面的比例最高,作者表示。
有趣的是,22%的期刊链接到了国际医学期刊编辑委员会或世界医学编辑协会等组织的外部声明,这些声明允许有限使用AI。然而,有5本期刊的政策与这些声明相矛盾,突显了该领域的缺乏共识。这种政策的分歧可能是导致指导方针差异的根本原因,作者指出。
虽然32%的期刊允许有限使用AI,但披露AI参与的标准不一,重要领域如创新、可重复性和参考管理尚未得到充分探讨。此外,分散的AI相关指导给审稿人带来了挑战,可能导致误用或保密性泄露。保密性是禁止使用AI的主要原因,96%的此类政策都提到了这一点。专家建议,更清晰的编辑指导和更好的AI使用政策遵守可以有效解决这些问题。
虽然AI不太可能取代人工同行评审,但随着技术的进步,其作用预计会扩大。作者说:“安全和合乎伦理地使用AI可以提高生产力和创新能力。因此,持续监控和定期评估AI的影响对于更新指导至关重要,从而保持高质量的同行评审。”随着AI的不断发展,医学期刊面临着平衡其好处与潜在风险的挑战,确保同行评审过程既严格又合乎伦理。这项研究提供了当前状况的快照,表明需要更大的合作和标准化来制定与AI相关的政策。
(全文结束)


