不要依赖AI医生:新搜索引擎提供的医疗建议可能导致五分之一的病例死亡Don’t count on Dr. AI: New search engine gives medical advice that could lead to death in one in five cases

环球医讯 / AI与医疗健康来源:solondais.fr英国 - 英语2024-10-12 01:00:00 - 阅读时长3分钟 - 1023字
德国研究人员发现,超过五分之一的AI聊天机器人对常见处方药问题的回答可能导致死亡或严重伤害,专家警告患者不要依赖这些搜索引擎。
AI医生医疗建议死亡风险自我诊断搜索引擎药物问题医疗专业人员患者安全误诊算法偏见
不要依赖AI医生:新搜索引擎提供的医疗建议可能导致五分之一的病例死亡

疯狂地在网上搜索症状并自我诊断是我们许多人常做的事情。但一项令人担忧的研究表明,AI医生可能会提供有害药物的建议。德国研究人员发现,超过五分之一的AI聊天机器人对常见处方药问题的回答可能导致死亡或严重伤害。

专家敦促患者不要依赖这些搜索引擎来获取准确和安全的信息。医生也被警告不要推荐这些工具,直到有更准确和可靠的替代品出现。

在这项研究中,埃尔兰根-纽伦堡大学的科学家们确定了美国50种最常用处方药的10个最常见的患者问题。这些问题包括药物副作用、使用说明和禁忌症(即不应服用药物的原因)。研究者使用微软开发的具有AI聊天机器人功能的搜索引擎Bing Copilot评估了500个回答,并将其与临床药师和医学药理学专家的回答以及经过同行评审的最新药物信息网站进行了比较。

研究发现,聊天机器人的陈述在超过四分之一(26%)的案例中与参考数据不符,而在超过3%的案例中完全不一致。但对20个回答的进一步分析还发现,近四成(42%)的回答被认为会导致中度或轻微的伤害,22%的回答可能导致死亡或严重伤害。

研究者在《BMJ质量与安全》杂志上写道:“聊天机器人的回答大多难以理解,且反复缺乏信息或存在不准确之处,可能威胁患者和药物的安全。”尽管这些技术具有潜力,但患者咨询医疗专业人员仍然至关重要,因为聊天机器人并不总是生成无误的信息。研究者建议,在更高准确率的搜索引擎可用之前,应谨慎推荐基于AI的搜索引擎。

微软发言人表示:“Copilot通过从多个来源提取信息来回答复杂的问题,提供相关引用,以便用户可以进一步探索和搜索,就像传统搜索一样。对于涉及医疗建议的问题,我们始终建议咨询医疗专业人员。”

研究者还评估了所有聊天机器人回答的可读性,发现这些回答通常需要大学教育才能理解。研究者也承认这项研究存在“若干局限性”,例如它并非基于患者的实际情况。实际上,患者可以要求聊天机器人提供更多详细信息或以更清晰的结构提供答案。

就在上个月,医生们被警告称,依赖AI辅助诊断可能会危及患者安全。研究人员通过英国最大的医生职业网络向一千名全科医生发送了调查问卷,这些医生目前在英国医学总会注册。五分之一的人承认在临床实践中使用了ChatGPT和Bing AI等程序,尽管缺乏官方指南说明如何与这些工具合作。专家警告说,算法偏见等问题可能导致误诊,患者数据也可能受到威胁。他们表示,医生需要了解这些风险,并呼吁立法规范其在医疗环境中的使用。


(全文结束)

大健康
大健康