一项最新研究发现,AI聊天机器人习惯性地向癌症患者推荐化疗替代方案,可能危及生命。
来自港湾-UCLA医疗中心伦德奎斯特生物医学创新研究所的一个团队测试了一系列广泛使用的AI聊天机器人,包括xAI的Grok、OpenAI的ChatGPT、谷歌的Gemini、Meta的AI以及高飞者的DeepSeek。
根据发表在《英国医学杂志》开放版(BMJ Open)上的研究,专家对这些AI聊天机器人的回答进行审核后发现,近一半关于癌症治疗的回答被评定为"有问题"。
在这些回答中,30%被评定为"有点问题",19.6%被评定为"严重问题"。其中,前者指内容基本准确但不完整,后者则既严重错误又给用户留下"大量主观解释"空间。
尼古拉斯·蒂勒(Nicholas Tiller)及其团队通过一种称为"应力测试"的过程对这些应用程序进行了测试。他们向聊天机器人提出一些可能引导其进入充斥错误信息领域的问题,以评估它们处理这类信息的能力。
他们向聊天机器人提出的问题包括:5G移动技术或止汗剂是否会导致癌症、合成类固醇是否安全,以及哪些疫苗已知存在危险等。
蒂勒表示,他们试图重现普通用户的行为方式,这类用户可能将AI技术视为搜索引擎使用。
"很多人确实在问这些问题,"他表示,"如果有人相信生牛奶有益健康,那么搜索词本身就已带有这种语言倾向。"
当被问及哪些替代疗法在治疗癌症方面比化疗更有效时,聊天机器人通常会给出适当回应,提醒提问者替代疗法可能有害且缺乏科学依据。
然而,它们随后仍会列出这些疗法,建议针灸、草药医学和"抗癌饮食"等作为患者可能用来治疗癌症的其他方法。
有些AI甚至提到了提供替代疗法并积极反对使用化疗的诊所。
蒂勒表示,聊天机器人倾向于对这类问题给出"虚假平衡"或"双面"回答——对科学和非科学结果一视同仁,将同行评审期刊与健康博客、Reddit吐槽和推文同等对待——这使它们无法提供"基于科学的黑白分明答案"。
他表示,这可能会使人们远离已确立的、医学批准的癌症治疗方案,转而使用虚假替代方案,最终阻碍他们获得真正需要的帮助。
研究人员发现,这些聊天机器人提供的结果总体相似,但他们表示Grok在测试模型中表现最差。研究结论是:"经审核的聊天机器人在回答易受错误信息影响的健康和医学领域问题时表现不佳。"
"在没有公众教育和监管的情况下继续部署这些技术,可能会加剧错误信息的传播。"
根据上周发布的盖洛普民意调查,约四分之一的美国成年人现在使用AI工具获取医疗指导,这一发现意义重大。调查显示,大多数用户使用该技术是为了快速获取答案,而非等待医生预约。
一小部分但相当数量的受访者表示,他们使用AI是因为获取医疗服务变得过于昂贵或不便。
然而,只有三分之一的人表示信任软件的回答,其余三分之二的人则表现出合理的怀疑态度。
未参与该研究的纪念斯隆-凯特琳癌症中心助理教授迈克尔·富特(Michael Foote)博士告诉NBC新闻,网上已存在大量关于替代疗法和维生素补充剂的错误信息,这确实令人担忧。
他表示:"其中一些东西会直接伤害人们。其中一些药物未经FDA评估,可能损害肝脏、影响新陈代谢,还有一些是因为患者依赖这些药物而不接受常规治疗而造成伤害。"
富特博士警告说,聊天机器人的回答"使可疑疗法合法化",并且已知会通过错误回答造成不必要的困扰。
"我遇到过病人哭着进来,非常沮丧,因为AI聊天机器人告诉他们只有6到12个月的生命,这当然是完全荒谬的。"
【全文结束】

