研究显示:AI正在提供不安全的医疗建议Ask Dr. Chatbot? AI is giving us unsafe health advice, study shows

环球医讯 / AI与医疗健康来源:www.yahoo.com德国 - 英语2024-10-15 01:00:00 - 阅读时长2分钟 - 641字
一项由比利时和德国研究人员进行的研究发现,AI聊天机器人提供的医疗建议中有三分之一可能对患者造成伤害。
AI医疗建议不安全ChatGPT伤害比利时和德国研究人员药物建议AI幻觉医疗专业人士
研究显示:AI正在提供不安全的医疗建议

像ChatGPT这样的AI聊天机器人可以对任何类型的医疗问题提供权威性的答案。然而,研究人员相信,AI生成的医疗建议中有三分之一可能会导致伤害。Mohssen Assanimoghaddam/dpa

据比利时和德国的研究人员称,人工智能聊天机器人不能依赖于提供准确、安全或甚至清晰的药物建议。“聊天机器人的回答大多难以阅读,且反复缺乏信息或存在不准确性,可能威胁到患者和药物的安全性,”《英国医学杂志·质量与安全》(BMJ Quality & Safety)发表的研究结果的作者表示。

研究团队警告说,大约三分之一的回答如果被潜在患者采纳,可能会对其造成伤害。尽管这些聊天机器人“接受”了来自互联网的数据训练,但它们仍然容易生成“错误信息、无意义或有害内容”,研究人员警告说,这显然是指所谓的AI“幻觉”——行业术语,用于描述聊天机器人产生胡言乱语的情况。

来自埃尔兰根-纽伦堡大学和制药巨头葛兰素史克(GSK)的研究团队向微软的Copilot聊天机器人提出了关于美国最常处方的约50种药物的10个问题,评估了聊天机器人的回答的可读性、完整性和准确性。研究团队发现,理解聊天机器人的回答需要大学毕业生水平的教育。此前的研究显示,OpenAI的ChatGPT(主要的AI聊天机器人服务和微软Copilot的最大竞争对手)也出现了类似的错误和有害回答,研究人员指出。

“在更精确和可靠的替代方案出现之前,医疗专业人士应谨慎推荐AI驱动的搜索引擎,”研究人员表示。


(全文结束)

大健康
大健康