研究显示使用人工智能获取医疗建议存在"危险"Using AI for medical advice 'dangerous', study finds - Yahoo Lifestyle Australia

环球医讯 / AI与医疗健康来源:au.lifestyle.yahoo.com英国 - 英语2026-02-11 02:41:50 - 阅读时长2分钟 - 712字
牛津大学互联网研究所和牛津大学初级保健健康科学系联合开展的一项研究揭示,利用人工智能聊天机器人寻求医疗建议可能带来严重风险,因AI系统"倾向于提供不准确且不一致的医疗信息"。研究对近1300名参与者进行测试发现,尽管AI在标准化医学知识测试中表现良好,但在实际医疗场景中会混杂正确与错误信息,导致用户难以辨别,可能造成误诊或延误紧急救治。该研究强调在健康等高风险领域部署AI面临的重大挑战,提醒公众不应过度依赖AI替代专业医生诊断,特别是在处理个人健康症状时需格外谨慎。
健康人工智能医疗建议危险AI聊天机器人不准确信息医疗决策风险全科医生大型语言模型
研究显示使用人工智能获取医疗建议存在"危险"

一项新研究发现,使用人工智能(AI)聊天机器人来寻求医疗建议可能"危险"。

该研究发现,由于AI"倾向于提供不准确和不一致的信息",使用AI进行医疗决策会给患者带来风险。

这项研究由牛津大学互联网研究所和牛津大学初级保健健康科学系的研究人员领导。

该研究的合著者丽贝卡·佩恩博士表示,研究发现"尽管炒作很多,但AI还远未准备好承担医生的角色"。

佩恩博士也是一名全科医生,她补充说:"患者需要意识到,向大型语言模型询问自己的症状可能很危险,因为它会给出错误诊断,并且无法识别何时需要紧急帮助。"

在这项研究中,研究人员让近1300名参与者在不同情景下识别潜在健康问题并推荐行动方案。

一些参与者使用大型语言模型(LLM)AI软件来获取可能的诊断和后续步骤,而另一些人则使用更传统的方法,例如看全科医生。

研究人员随后评估了结果,发现AI经常提供"好坏信息的混合",用户难以区分。

他们发现,尽管AI聊天机器人现在"在标准化医学知识测试中表现出色",但作为医疗工具使用时,会对"寻求自身医疗症状帮助的真实用户构成风险"。

佩恩博士说:"这些发现凸显了构建能够真正支持人们在健康等敏感、高风险领域中的AI系统的困难。"

该研究的主要作者、来自牛津互联网研究所的安德鲁·比恩表示,研究表明"与人类互动对即使是表现最好的大型语言模型也构成挑战"。

他补充说:"我们希望这项工作将有助于开发更安全、更有用的AI系统。"

【全文结束】