牛津大学研究称AI聊天机器人提供医疗建议存在危险风险AI chatbots give inaccurate medical advice says Oxford Uni study

环球医讯 / AI与医疗健康来源:www.bbc.com英国 - 英语2026-02-28 01:27:40 - 阅读时长2分钟 - 958字
牛津大学最新研究揭示AI聊天机器人在提供医疗建议时存在严重隐患,实验显示用户因提问方式差异会获得矛盾信息,难以辨别有效建议;研究涉及1300名受试者模拟头痛、产后疲惫等场景,发现依赖AI者常无法准确判断病情严重性,资深专家指出AI会复现医疗体系数十年固有偏见,且当前模型在人际交互方面存在根本缺陷,尽管行业正开发专用医疗AI并呼吁加强监管,但医学界警告用户切勿将症状咨询依赖于聊天机器人。
健康AI聊天机器人医疗建议健康风险不准确不一致心理健康福祉管理医疗信息固有偏见专用版监管框架医疗指南
牛津大学研究称AI聊天机器人提供医疗建议存在危险风险

牛津大学一项研究指出,AI聊天机器人提供的医疗建议存在不准确且不一致的问题,可能对用户构成风险。

研究人员发现,使用AI获取医疗建议的人群收到的信息质量参差不齐,导致难以判断哪些内容值得信赖。

2025年11月,英国心理健康协会的民调显示,超过三分之一的英国居民已开始使用AI辅助心理健康或福祉管理。

该研究首席医疗专家丽贝卡·佩恩博士警告,向聊天机器人咨询症状可能"极其危险"。

实验中,研究人员向1300名受试者提供特定场景(如严重头痛或产后持续疲惫的新手母亲),将其分为两组,其中一组使用AI辅助判断病情及后续行动。

研究人员随后评估受试者能否正确识别潜在问题,以及是否应寻求全科医生或急诊科帮助。

结果显示,依赖AI的受试者常不清楚如何有效提问,且答案随问题表述方式变化而差异显著。

聊天机器人给出的信息混杂,用户难以区分有用内容与无效内容。

研究高级作者亚当·马迪博士向BBC表示,尽管AI能提供医疗信息,但人们"难以从中获取实用建议"。

他解释道:"人们往往是逐步分享信息的,会遗漏细节,不会事无巨细全部说明。因此当AI列出三种可能病症时,用户只能自行猜测哪种符合自身情况——这正是问题崩溃的关键点。"

首席作者安德鲁·比恩指出,该分析揭示了即便是顶尖AI模型,在应对人类交互时仍面临重大挑战。

"我们希望这项工作能推动更安全、更实用AI系统的开发,"他表示。

耶鲁医学院精神病学副教授安珀·W·蔡尔兹博士补充称,由于聊天机器人基于现行医疗实践和数据训练,它们会复现"数十年来根植于医疗体系的固有偏见"。

她强调:"聊天机器人的诊断能力仅与经验丰富的临床医生相当,而后者本身也并非完美。"

与此同时,预测医疗科技趋势的《医疗未来主义者》主编贝尔塔兰·梅斯科表示,该领域正在推进革新。

他指出,OpenAI和Anthropic两大AI开发商近期已推出医疗专用版聊天机器人,认为"类似研究中这些专用版必然产生不同结果"。

他呼吁应"持续改进"技术,特别是"在明确国家法规、监管框架和医疗指南下开发健康相关版本"。

【全文结束】