研究发现:AI 聊天机器人可能无法提供安全准确的药物信息AI chatbots may not provide safe or accurate drug information, study finds

环球医讯 / AI与医疗健康来源:knowridge.com未知 - 英语2024-10-11 18:00:00 - 阅读时长3分钟 - 1426字
研究表明患者不应仅依赖 AI 聊天机器人和搜索引擎获取药物信息,因其提供的许多答案可能不准确或有害。
AI聊天机器人药物信息不准确潜在危害患者安全医疗保健提供者《BMJ质量与安全》必应copilot
研究发现:AI 聊天机器人可能无法提供安全准确的药物信息

研究人员得出结论,患者不应仅仅依靠人工智能驱动的聊天机器人和搜索引擎来获取药物信息,因为这些工具提供的许多答案可能不准确或具有潜在危害。

这一结论来自发表在《BMJ 质量与安全》杂志上的一项研究,该研究发现关于常用处方药的大量聊天机器人回复是不正确的。

研究人员还指出,这些聊天机器人生成的答案中使用的复杂语言可能对于普通人来说难以理解,尤其是那些没有大学教育水平的人。

2023 年 2 月,搜索引擎整合了人工智能驱动的聊天机器人,承诺提供更详细和互动的搜索结果。这些聊天机器人是在来自互联网的大型数据集上训练的,使它们能够就任何主题进行对话,包括医疗保健。

然而,这些人工智能系统也可能产生错误或误导性的信息,当人们寻求有关他们药物的答案时可能会有风险。

大多数早期的研究都集中在人工智能聊天机器人如何影响医疗保健专业人员。然而,这项研究通过分析聊天机器人在回答 2020 年美国 50 种最常用处方药相关问题时的可理解性、完整性和准确性,研究了对患者的影响。

研究人员使用必应的人工智能聊天机器人(称为“copilot”),来观察它在回答药物相关查询时的表现。

为了模拟患者可能对其药物提出的问题,研究人员咨询了医生和药剂师,编制了一份常见问题清单。

对于每种药物,他们向聊天机器人询问 10 个常见问题,包括药物的用途、作用机制、如何服用、常见副作用和任何警告。

研究人员总共分析了聊天机器人的 500 个答案。他们评估了回复的易读性、信息的完整性以及与可信的药物信息网站 drugs.com 上的信息相比的准确性。

聊天机器人答案的可读性使用称为 Flesch 阅读轻松得分的工具进行测量,该工具估计理解一段文本所需的教育程度。结果表明,聊天机器人的答案难以阅读。

平均而言,理解答案需要大学水平的教育,即使是最简单的答案也至少需要高中水平的理解。

在答案的完整性方面,聊天机器人的表现各不相同。对于十个问题中的五个,聊天机器人提供了完全完整的答案。

然而,对于“服用此药时我应该考虑什么?”这个问题,聊天机器人平均仅提供了 23%的必要信息。

在准确性方面,聊天机器人出现了一些错误。在 484 个聊天机器人答案中,约 26%与正确信息不匹配,略超过 3%的回复完全错误。

当一组药物安全专家审查 20 个不准确或不完整的答案时,他们发现只有 54%的这些答案与科学共识一致。

近 40%的答案直接与公认的科学理解相矛盾,而其余的则没有明确的共识。

专家们还评估了遵循聊天机器人建议的潜在危害。他们发现 3%的答案可能会造成重大伤害,而 29%构成中度风险。

总体而言,42%的答案有可能造成轻度或中度伤害,22%可能导致严重后果,包括死亡。

研究人员承认他们的研究存在一些局限性,指出他们没有使用真实的患者经验,并且回复可能因聊天机器人使用的语言或地区而异。

尽管存在这些挑战,研究发现人工智能驱动的聊天机器人在许多情况下可以对药物问题产生完整和准确的回答。

然而,研究人员警告说,聊天机器人的答案往往难以理解,有时包含危险的不准确之处。这引起了对患者安全的担忧,特别是当患者依靠这些工具获取重要的健康信息时。

该研究得出结论,患者应继续咨询其医疗保健提供者以获取准确的药物信息。

虽然人工智能聊天机器人具有潜力,但在涉及健康和药物安全时,它们还不够可靠,无法取代专业建议。在这些工具更加准确之前,患者应谨慎对待人工智能生成的健康信息。

大健康
大健康