AI医生不会接诊,研究发现聊天机器人提供的药物建议不准确The AI doctor won't see you now as study finds chatbots give inaccurate drug advice

环球医讯 / AI与医疗健康来源:www.express.co.uk英国 - 英语2024-10-11 07:00:00 - 阅读时长2分钟 - 760字
研究人员警告患者不要依赖AI聊天机器人和搜索引擎获取药物建议,因为这些建议经常错误
AI医生聊天机器人药物建议不准确患者安全医疗专业人士BingCopilot《BMJ质量与安全》
AI医生不会接诊,研究发现聊天机器人提供的药物建议不准确

患者被警告不要依赖AI聊天机器人和搜索引擎获取药物建议,因为一项研究发现这些建议经常错误。研究人员向微软开发的Bing副驾(Bing Copilot)提出了500个关于美国最常用的50种处方药的问题,这些问题包括药物的用途、工作原理、使用说明和常见副作用。

尽管聊天机器人经常提供完整和准确的数据,但令人担忧的是,许多答案被认为是不正确或可能有害的。研究人员表示:“我们观察到,带有AI聊天机器人的搜索引擎总体上能提供完整和准确的答案来回应患者的提问。”然而,聊天机器人的答案大多难以阅读,反复缺乏信息或存在不准确性,可能威胁患者和药物安全。

由七位药物安全专家组成的小组对20个答案进行了详细分析,发现只有54%的答案与科学共识一致。39%的答案与科学共识相悖,剩余6%没有明确的科学共识。如果患者遵循聊天机器人的建议,有3%的可能性造成严重伤害,29%的可能性造成中等程度的伤害。

该研究来自德国埃尔兰根-纽伦堡大学的研究人员,他们在《BMJ质量与安全》杂志上的报告中指出:“尽管它们具有潜力,但患者仍需咨询医疗专业人士,因为聊天机器人可能无法始终生成无误的信息。”他们建议,在推荐使用AI驱动的搜索引擎之前应保持谨慎,直到出现准确率更高的引用引擎。

聊天机器人基于大型语言模型,这些模型经过广泛的互联网数据集训练,能够生成任何主题的信息。Bing聊天机器人引用了超过200个网站作为信息来源,最常参考的网站包括drugs.com、mayoclinic.org和healthline.com。

微软发言人表示:“Copilot通过从多个来源提炼信息来回答复杂问题。Copilot提供了链接引用,以便用户可以进一步探索和研究,就像传统搜索一样。对于与医疗建议相关的问题,我们始终建议咨询医疗专业人士。”


(全文结束)

大健康
大健康