AI聊天机器人可能传播医疗虚假信息 研究建议加强防护措施AI chatbots can run with medical misinformation, study finds, highlighting the need for stronger safeguards

环球医讯 / AI与医疗健康来源:www.eurekalert.org美国 - 英语2025-08-07 07:39:35 - 阅读时长2分钟 - 813字
西奈山伊坎医学院最新研究发现主流AI聊天机器人易受错误医疗信息影响,测试显示加入简短预警提示可使虚假信息输出减少近半,该研究建议通过优化提示工程与内置防护机制提升医疗AI可靠性,研究团队计划将"伪术语检测法"应用于真实医疗场景的压力测试。
AI聊天机器人医疗虚假信息防护措施预警提示医疗AI应用伪术语检测法系统安全性人类监督
AI聊天机器人可能传播医疗虚假信息 研究建议加强防护措施

研究人员提出可通过添加内置预警提示降低AI聊天机器人复述错误医疗信息的风险

纽约(2025年8月6日)——西奈山伊坎医学院最新研究表明,主流AI聊天机器人对错误医疗信息存在高度易感性,不仅会直接复述虚假内容,还会自信地生成不存在的疾病解释,这凸显了医疗AI应用前必须建立更强防护机制。

研究人员发现,通过在提示词中加入简单警告语可显著降低风险。该成果发表于2025年8月2日《通讯医学》杂志。

研究团队设计了包含虚构医学术语的临床场景(如虚构疾病名、症状或检测指标),测试主流大语言模型的响应。实验分两阶段:第一阶段直接输入含错误信息的临床问题,第二阶段在问题中添加"信息可能不准确"的单行警告提示。

"我们发现AI系统容易被错误医疗细节误导,无论这些错误是有意植入还是意外产生。"首席作者Mahmud Omar博士指出,"AI不仅复述错误信息,还会扩展生成不存在的疾病解释,但简单的单行警告就能大幅减少这类幻觉输出,证明微小防护措施能产生显著效果。"

共同通讯作者Eyal Klang博士强调,实验显示单一虚构术语可能触发完全基于虚构的详细医疗建议。该团队开发的"伪术语检测法"可作为医疗AI压力测试工具,帮助医院、科技公司和监管部门在临床应用前验证系统安全性。

研究通讯作者、西奈山人工智能与人类健康系主任Girish Nadkarni博士认为,该研究揭示了现有AI工具处理医疗信息的盲区。"解决方案不是放弃医疗AI,而是开发能识别可疑输入、谨慎响应并确保人类监督的系统。我们距离这个目标仍有差距,但通过系统性安全措施可以实现。"

论文标题为《临床决策支持中大语言模型的广泛幻觉现象:多模型验证分析》。研究获得美国国家转化科学促进中心资助(UL1TR004419),并使用了西奈山科学计算与数据平台的资源。

【全文结束】

大健康
大健康