牛津大学一项研究指出,AI聊天机器人提供的医疗建议存在不准确且不一致的问题,可能对用户构成风险。
研究人员发现,使用AI获取医疗建议的人群收到的信息质量参差不齐,导致难以判断哪些内容值得信赖。
2025年11月,英国心理健康协会的民调显示,超过三分之一的英国居民已开始使用AI辅助心理健康或福祉管理。
该研究首席医疗专家丽贝卡·佩恩博士警告,向聊天机器人咨询症状可能"极其危险"。
实验中,研究人员向1300名受试者提供特定场景(如严重头痛或产后持续疲惫的新手母亲),将其分为两组,其中一组使用AI辅助判断病情及后续行动。
研究人员随后评估受试者能否正确识别潜在问题,以及是否应寻求全科医生或急诊科帮助。
结果显示,依赖AI的受试者常不清楚如何有效提问,且答案随问题表述方式变化而差异显著。
聊天机器人给出的信息混杂,用户难以区分有用内容与无效内容。
研究高级作者亚当·马迪博士向BBC表示,尽管AI能提供医疗信息,但人们"难以从中获取实用建议"。
他解释道:"人们往往是逐步分享信息的,会遗漏细节,不会事无巨细全部说明。因此当AI列出三种可能病症时,用户只能自行猜测哪种符合自身情况——这正是问题崩溃的关键点。"
首席作者安德鲁·比恩指出,该分析揭示了即便是顶尖AI模型,在应对人类交互时仍面临重大挑战。
"我们希望这项工作能推动更安全、更实用AI系统的开发,"他表示。
耶鲁医学院精神病学副教授安珀·W·蔡尔兹博士补充称,由于聊天机器人基于现行医疗实践和数据训练,它们会复现"数十年来根植于医疗体系的固有偏见"。
她强调:"聊天机器人的诊断能力仅与经验丰富的临床医生相当,而后者本身也并非完美。"
与此同时,预测医疗科技趋势的《医疗未来主义者》主编贝尔塔兰·梅斯科表示,该领域正在推进革新。
他指出,OpenAI和Anthropic两大AI开发商近期已推出医疗专用版聊天机器人,认为"类似研究中这些专用版必然产生不同结果"。
他呼吁应"持续改进"技术,特别是"在明确国家法规、监管框架和医疗指南下开发健康相关版本"。
【全文结束】

