依赖AI聊天机器人处理医疗问题可能危险 因其提供错误建议和误诊Relying on AI chatbots for healthcare can be 'dangerous' as they give bad advice and wrong diagnoses

环球医讯 / AI与医疗健康来源:www.msn.com英国 - 英语2026-02-10 10:52:31 - 阅读时长2分钟 - 833字
一项由牛津大学研究人员主导、发表在《自然医学》杂志上的研究揭示,依赖AI聊天机器人获取医疗建议存在显著风险,因其频繁给出错误诊断和危险指导;实验针对1300名英国参与者进行,测试GPT-4o、Llama 3及Command R+等主流聊天机器人在头痛、产后疲劳等10类健康场景中的表现,结果显示用户仅能正确识别健康问题约33%的时间,45%能采取正确行动,效果不优于搜索引擎;研究归因于真实场景中人类与AI的沟通障碍,包括信息提供不全和建议误解,荷兰马斯特里赫特大学生物伦理学家大卫·肖警告公众应仅从NHS等权威渠道获取医疗信息,避免因AI误导延误紧急救治,尤其每六名美国成年人中即有一人每月咨询AI健康问题,该趋势随技术普及将持续扩大。
AI聊天机器人医疗问题错误建议误诊健康建议就医医疗风险可靠来源NHS
依赖AI聊天机器人处理医疗问题可能危险 因其提供错误建议和误诊

一项令人担忧的研究显示,依赖AI聊天机器人处理医疗问题可能“危险”,因为它们会给出不良建议和错误诊断。

研究人员发现,尽管人工智能如今能够轻松通过大多数医生执照考试,但在提供比传统方法更好的健康建议方面却无法超越人类。

研究合著者、牛津大学(Oxford University)的丽贝卡·佩恩(Rebecca Payne)表示:“尽管炒作不断,AI尚未准备好承担医生的角色。患者需要意识到,向大型语言模型咨询症状可能危险,会导致误诊并无法识别何时需要紧急帮助。”

研究团队希望了解人类在使用聊天机器人识别健康问题及判断是否需要就医或住院时的成功率。

该团队向近1300名英国参与者提供了10种不同场景,例如饮酒后头痛、新妈妈感到疲惫或胆结石的感觉。

随后,研究人员随机为参与者分配了三种聊天机器人之一:OpenAI的GPT-4o、Meta的Llama 3或Command R+。

另有一组对照组使用互联网搜索引擎。

根据发表在《自然医学》杂志上的研究,使用AI聊天机器人的人员仅约三分之一时间能识别其健康问题,仅约45%能确定正确的行动方案。

这一表现并不优于对照组。

研究人员指出,这些令人失望的结果与AI聊天机器人在医学基准测试和考试中得分极高的情况存在差距,并将此归咎于沟通障碍。

与常用于测试AI的模拟患者互动不同,真实人类往往未向聊天机器人提供所有相关信息。

有时,人类难以理解聊天机器人提供的选项,或误解甚至完全忽略其建议。

研究人员表示,每六名美国成年人中就有一人每月至少一次向AI聊天机器人咨询健康信息,随着更多人采用新技术,这一数字预计会增加。

未参与该研究的荷兰马斯特里赫特大学(Maastricht University)生物伦理学家大卫·肖(David Shaw)表示:“这是一项非常重要的研究,因为它凸显了聊天机器人对公众构成的真实医疗风险。”

他建议人们仅应信任来自可靠来源的医疗信息,例如英国国家医疗服务体系(NHS)。

【全文结束】