多年来,人们一直被警告不要轻信“谷歌医生”——但人工智能正在打开一个令人不安的全新世界,充斥着危险的健康假信息。
一项由南澳大学(University of South Australia)、弗林德斯大学(Flinders University)、哈佛医学院(Harvard Medical School)、伦敦大学学院(University College London)和华沙理工大学(Warsaw University of Technology)共同领导的全球首例研究揭示了聊天机器人多么容易被编程来传播错误的医疗和健康信息。
在这项研究中,研究人员评估了由OpenAI、谷歌(Google)、Anthropic、Meta和X Corp开发的五种最先进的AI系统。
研究人员使用仅对开发者开放的指令,将这些设计为嵌入网页后充当聊天机器人的AI系统编程,使其在回答健康问题时生成错误答案,并伪造来自权威来源的参考文献,以显得更具可信度和权威性。
随后,这些“聊天机器人”被问了一系列与健康相关的问题。
“总计88%的回答都是错误的,”南澳大学研究员纳坦什·莫迪博士(Dr Natansh Modi)表示,“然而,它们却通过科学术语、正式语气以及伪造的参考文献让这些信息看起来合法可信。”
这些虚假信息包括诸如疫苗导致自闭症、抗癌饮食法、艾滋病通过空气传播以及5G导致不孕等荒谬说法。
在被评估的五个聊天机器人中,有四个在所有回答中都生成了虚假信息,而第五个则在40%的回答中产生了虚假信息,显示出一定程度的抗干扰能力。
作为研究的一部分,莫迪及其团队还探索了OpenAI的GPT商店,这是一个允许用户创建和分享定制ChatGPT应用的公开平台,用以评估公众创建虚假信息工具的难易程度。
“我们成功地利用该平台创建了一个虚假信息聊天机器人原型,还发现了商店中现有的公共工具,这些工具正在积极生产健康方面的虚假信息,”他说。
莫迪指出,这些发现揭示了健康领域中一个重大且此前未被充分探讨的风险。
“人工智能现在已经深深嵌入到人们获取和传递健康信息的方式中,”他说,“数百万人正转向AI工具寻求健康相关问题的指导。”
他表示,人工智能系统可能被操控成为一种强有力的虚假信息传播途径,其说服力甚至超过任何其他传统手段。
“这不是未来的风险,而是已经存在并且正在发生的事情,”他说。
莫迪表示,虽然有一个摆脱这种局面的路径,但开发者、监管者和公共卫生利益相关者必须“立即行动”。
“部分模型表现出了一定的抗干扰能力,这证明有效的防护措施在技术上是可以实现的,”他说,“然而,目前的保护机制既不一致也不充分。”
“如果不立即采取行动,这些系统可能会被恶意行为者利用,在大规模上操纵公共卫生舆论,尤其是在疫情或疫苗接种活动等危机期间。”
(全文结束)


