《卫报》独家调查显示,谷歌已移除部分人工智能健康摘要,此前该报调查发现虚假误导性信息正将用户置于健康风险之中。
谷歌声称其AI摘要(通过生成式人工智能提供主题或问题的核心信息摘要)具有"帮助性"和"可靠性"。但部分出现在搜索结果顶部的摘要却提供了不准确的健康信息,使用户面临健康损害风险。
专家将其中一案例描述为"危险"且"令人震惊":谷歌提供了关于关键肝功能检测的虚假信息,可能导致严重肝病患者误以为自己健康。《卫报》发现,当用户搜索"肝功能血液检查的正常范围是多少"时,系统会罗列大量数值,却缺乏对患者国籍、性别、种族或年龄的考量。
专家指出,谷歌AI摘要显示的"正常"范围可能与实际标准存在巨大差异,可能使重症患者误判检测结果正常,从而放弃后续医疗随访。调查后,谷歌已移除针对"肝功能血液检查正常范围"和"肝功能检查正常范围"等搜索词的AI摘要。
谷歌发言人表示:"我们不对搜索中的个别移除内容置评。当AI摘要缺失部分背景信息时,我们会努力进行广泛改进,并在适当时依据政策采取行动。"
英国肝脏信托基金会(肝健康慈善机构)传播与政策主任凡妮莎·赫迪奇表示:"这是个好消息,我们很高兴看到谷歌在此类情况下移除了AI摘要。但若问题以不同方式提出,仍可能获得具有误导性的AI摘要。我们仍担忧其他AI生成的健康信息可能不准确且令人困惑。"
《卫报》发现,在谷歌中输入原查询词的细微变体(如"lft参考范围"或"lft检测参考范围")仍会触发AI摘要。赫迪奇对此表示严重担忧:"肝功能检查(LFT)包含多项血液检测组合。理解结果及后续措施十分复杂,远不止比对一组数值。但AI摘要将检测项目加粗列出,使读者极易忽略这些数值可能根本不适用于其检测。此外,AI摘要未警告患者:即使患有严重肝病需要进一步治疗,检测结果也可能显示正常。这种错误保证可能造成极大危害。"
占据全球搜索引擎91%市场份额的谷歌表示,正在审查《卫报》提供的新案例。赫迪奇补充道:"我们更担忧的是,谷歌仅在移除单一搜索结果,却未解决健康领域AI摘要的根本问题。"
促进循证健康信息的患者信息论坛主席苏·法林顿对摘要移除表示欢迎,但仍存忧虑:"这是良好进展,但仅是维护谷歌健康搜索结果可信度所需措施的第一步。目前仍存在太多谷歌AI摘要向用户提供不准确健康信息的实例。"
法林顿指出,全球数百万成年人已难以获取可信健康信息,"正因如此,谷歌引导民众获取权威机构提供的严谨研究健康信息及医疗建议至关重要。"
针对《卫报》先前向谷歌指出的其他案例,AI摘要仍会弹出。包括专家称为"完全错误"和"真正危险"的癌症与心理健康信息摘要。当被问及为何未移除这些摘要时,谷歌称其链接至知名可靠信源,并会在需要时提示用户寻求专业建议。发言人表示:"内部临床团队审查了共享内容,发现多数情况下信息准确且得到高质量网站支持。"
科技媒体Futurism高级编辑维克多·坦格曼认为,调查结果表明谷歌"亟需确保其AI工具不再传播危险健康 misinformation"。
谷歌称AI摘要仅在对其回复质量高度自信的查询中显示,并持续衡量审查各信息类别的摘要质量。搜索引擎期刊高级撰稿人马特·南在文章中指出:"AI摘要位于排名结果上方,当涉及健康话题时,错误后果更为严重。"
【全文结束】


