不要依赖Dr AI:新搜索引擎提供的医疗建议可能导致五分之一的病例死亡Don't rely on Dr AI: New search engine gives medical advice that could lead to death in one in five cases

环球医讯 / AI与医疗健康来源:www.dailymail.co.uk英国 - 英语2024-10-12 01:00:00 - 阅读时长3分钟 - 1074字
德国研究人员发现,超过五分之一的人工智能聊天机器人对常见处方药问题的回答可能“导致死亡或严重伤害”,专家警告患者不要依赖此类搜索引擎获取准确和安全的信息。
DrAI医疗建议死亡风险自我诊断搜索引擎处方药准确性医疗保健专业人士患者安全算法偏差
不要依赖Dr AI:新搜索引擎提供的医疗建议可能导致五分之一的病例死亡

疯狂地在网上查找我们的症状并自我诊断是我们许多人常犯的错误。但一项令人担忧的研究表明,Dr AI可能正在提供“潜在有害”的药物建议。德国研究人员发现,超过五分之一的AI聊天机器人对常见处方药问题的回答可能“导致死亡或严重伤害”。专家敦促患者不要依赖此类搜索引擎来获取准确和安全的信息。医生也被警告不要推荐这些工具,直到有更“精确可靠”的替代品出现。

在这项研究中,来自埃尔兰根-纽伦堡大学的科学家们确定了美国最常用的50种处方药的10个最常见的患者问题。这些问题包括不良药物反应、使用说明和禁忌症(即不应服用该药物的原因)。使用微软开发的具有AI聊天机器人功能的搜索引擎Bing Copilot,研究人员评估了所有500个回答,并与临床药剂师和药理学专家提供的答案进行了对比。回答还与一个最新的同行评审药物信息网站进行了比较。

他们发现,聊天机器人的陈述在超过四分之一(26%)的情况下与参考数据不符,完全不一致的情况占3%以上。进一步分析20个回答也发现,近四成(42%)的回答被认为会导致中度或轻度伤害,22%的回答可能导致死亡或严重伤害。科学家们还评估了所有聊天机器人回答的可读性,发现这些回答通常需要学位水平的教育才能理解。

研究人员在《BMJ质量与安全》杂志上写道:“聊天机器人的回答大多难以阅读,且反复缺乏信息或存在不准确性,这可能威胁到患者和药物的安全。”尽管它们有潜力,但患者仍需咨询医疗保健专业人士,因为聊天机器人可能无法始终生成无误的信息。“在推荐AI驱动的搜索引擎之前,应谨慎行事,直到出现准确率更高的引用引擎。”

微软发言人表示:“Copilot通过从多个来源提取信息并整合成一个回答来回答复杂的问题。Copilot提供了链接引用,以便用户可以进一步探索和研究,就像传统搜索一样。对于涉及医疗建议的问题,我们始终建议咨询医疗保健专业人士。”

科学家们还承认研究有“若干局限性”,包括未借鉴真实患者的体验。实际上,患者可以向聊天机器人询问更多信息,或要求它以更清晰的结构提供答案,例如,他们说。上个月,医生们被警告称,依赖AI进行诊断可能会危及患者安全。研究人员向一千名GP发送了调查问卷,这些GP使用的是目前英国最大的医生职业网络,注册于普通医学委员会。五分之一的GP承认在临床实践中使用了如ChatGPT和Bing AI等程序,尽管没有关于如何使用这些工具的官方指导。专家警告称,算法偏差等问题可能导致误诊,患者数据也可能受到威胁。他们表示,医生必须了解风险,并呼吁立法覆盖这些工具在医疗保健环境中的使用。


(全文结束)

大健康
大健康