研究显示:AI正在提供不安全的医疗建议Ask Dr Chatbot? AI Is Giving Unsafe Health Advice, Study Shows

环球医讯 / AI与医疗健康来源:www.bernama.com德国 - 英语2024-10-15 16:00:00 - 阅读时长2分钟 - 627字
研究表明,三分之一的AI生成的医疗建议可能导致患者受到伤害
AI医疗建议不安全伤害比利时德国研究人员聊天机器人药物建议BMJQuality&Safety
研究显示:AI正在提供不安全的医疗建议

研究人员相信,三分之一的AI生成的医疗建议可能会导致伤害。-- 摄影:Mohssen Assanimoghaddam/dpa

柏林,10月15日(Bernama-dpa)-- 比利时和德国的研究人员团队表示,人工智能聊天机器人无法提供准确、安全或甚至清晰的药物建议。

“聊天机器人的回答大多难以阅读,且反复缺乏信息或存在不准确之处,可能威胁到患者和药物的安全。”研究结果发表在英国医学杂志《BMJ Quality & Safety》上的作者们警告说。该团队警告称,大约三分之一的回答如果患者采纳了这些药物建议,可能会导致患者受到伤害。

尽管聊天机器人是通过从互联网上获取的数据进行“训练”的,但它们仍然容易生成“错误信息、无意义或有害内容”,研究人员警告说,这显然是指所谓的AI“幻觉”——行业术语,用于描述聊天机器人输出胡言乱语的情况。

来自埃尔兰根-纽伦堡大学和制药巨头葛兰素史克的研究团队向微软的Copilot聊天机器人提出了关于美国最常处方的50种药物的10个问题,评估了聊天机器人的回答的可读性、完整性和准确性。研究团队发现,要理解聊天机器人的回答需要具备大学毕业生水平的教育。此前的研究显示,OpenAI的ChatGPT,主要的AI聊天机器人服务和微软Copilot的最大竞争对手,也显示出类似的不正确和有害回答。

“医疗专业人士在推荐AI驱动的搜索引擎时应保持谨慎,直到有更精确和可靠的替代方案可用。”研究人员表示。


(全文结束)

大健康
大健康