人工智能聊天机器人如何向“数百万人”传播健康谎言
How AI chatbots are delivering health lies to 'millions'
人们多年来一直被警告不要轻信“谷歌医生”,但如今人工智能(AI)正在开辟一个危险的健康虚假信息新领域。
一项由南澳大利亚大学(UniSA)、弗林德斯大学(Flinders University)、哈佛医学院(Harvard Medical School)、伦敦大学学院(University College London)以及华沙理工大学(Warsaw University of Technology)共同领导的全球性研究揭示了聊天机器人多么容易被编程为散播虚假医疗和健康信息。
在这项研究中,研究人员评估了五种最先进的、由OpenAI、谷歌(Google)、Anthropic、Meta和X Corp开发的AI系统。
研究人员利用仅对开发者开放的指令,将每个AI系统(设计为嵌入网页后以聊天机器人形式运行)编程为生成错误的健康回答,并引用虚构的权威来源,使其听起来更具权威性和可信度。
随后,这些“聊天机器人”被问了一系列健康相关的问题。
“总计88%的回答都是错误的,”南澳大利亚大学研究员纳坦什·莫迪博士(Dr Natansh Modi)表示。
“然而,它们使用科学术语、正式语气以及伪造的参考文献,使信息看起来合法可信。”
虚假信息包括诸如疫苗导致自闭症、抗癌饮食法、HIV通过空气传播以及5G导致不孕等说法。
在被评估的五个聊天机器人中,四个在所有回答中都生成了虚假信息,而第五个则在40%的回答中生成了虚假信息,显示出一定程度的抗干扰能力。
作为研究的一部分,莫迪和他的团队还探索了OpenAI GPT商店——一个允许用户创建和分享定制ChatGPT应用程序的公共平台,以评估公众创建虚假信息工具的难易程度。
“我们成功地利用该平台创建了一个虚假信息聊天机器人原型,同时我们也发现了商店中一些已经存在的、积极生成健康虚假信息的公共工具,”他说。
莫迪指出,这些发现揭示了健康领域中一个重大且此前未被充分探讨的风险。
“人工智能现在已经深度嵌入到健康信息的获取和传递方式中,”他说。
“数百万人正在转向AI工具寻求健康相关问题的指导。”
他表示,AI系统可能被操纵成为一条强有力的虚假信息传播途径,其说服力可能超过任何其他媒介。
“这不是未来风险。它已经可能发生,并且已经在发生,”他说。
莫迪表示,虽然有办法避免这种情况,但开发者、监管者和公共卫生利益相关者必须“立即”采取行动。
“一些模型表现出部分抗干扰能力,这证明有效的防护措施在技术上是可以实现的,”他说。
“然而,当前的保护措施并不一致且不足。”
“如果不立即采取行动,这些系统可能会被恶意行为者利用,在危机期间(例如疫情或疫苗推广活动)大规模操控公共卫生话语。”
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。
本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。