研究发现使用人工智能获取医疗建议存在危险Using AI for medical advice 'dangerous', study finds - Yahoo Style Canada

环球医讯 / AI与医疗健康来源:ca.style.yahoo.com英国 - 英语2026-02-11 02:42:19 - 阅读时长2分钟 - 648字
牛津大学研究人员主导的新研究证实,使用人工智能聊天机器人寻求医疗建议存在显著风险,因其倾向于提供不准确且不一致的信息,用户难以区分内容可靠性,可能导致错误诊断并忽视紧急医疗需求;尽管当前大型语言模型在标准化医学测试中表现优异,但在真实健康场景中应用仍面临高风险,研究强调人工智能尚无法替代医生在敏感医疗决策中的专业角色,患者需警惕自行使用AI处理健康问题的潜在危害。
健康人工智能医疗建议危险医疗决策风险不准确信息不一致信息大型语言模型错误诊断紧急医疗救助患者全科医生
研究发现使用人工智能获取医疗建议存在危险

研究发现,使用人工智能(AI)聊天机器人寻求医疗建议可能十分“危险”。

该研究指出,利用人工智能进行医疗决策会对患者构成风险,原因在于其“倾向于提供不准确且不一致的信息”。此项研究由牛津互联网研究所和牛津大学基础护理健康科学系的研究人员主导。

丽贝卡·佩恩博士(Dr. Rebecca Payne)作为研究报告的合著者表示:“尽管当前对AI的宣传铺天盖地,但它仍未准备好承担医师的角色。”这位同样担任全科医生的专家补充道:“患者必须意识到,向大型语言模型咨询自身症状可能十分危险,因其会给出错误诊断,并且无法识别何时需要紧急医疗救助。”

在该研究中,研究人员让近1300名参与者通过不同场景识别潜在健康问题并推荐应对方案。部分参与者使用大型语言模型(LLM)AI软件获取潜在诊断和后续步骤,而另一些人则采用更传统的方法——例如面诊全科医生。

研究人员随后评估了结果,发现人工智能常提供“良莠不齐的信息”,用户难以有效区分其可靠性。研究指出,尽管AI聊天机器人如今在“标准化医学知识测试中表现出色”,但将其作为医疗工具“将对寻求个人症状帮助的真实用户构成风险”。

佩恩博士表示:“这些发现凸显了构建真正能支持人们处理健康等敏感高风险领域问题的AI系统所面临的困难。”该研究的首席作者、来自牛津互联网研究所的安德鲁·比恩(Andrew Bean)指出,研究显示“与人类互动对表现最优的大型语言模型而言仍是重大挑战”。

“我们希望这项工作能推动开发更安全、更有用的AI系统,”他补充道。

【全文结束】