研究发现人们难以从聊天机器人获得有用的健康建议People struggle to get useful health advice from chatbots, study finds

环球医讯 / AI与医疗健康来源:techcrunch.com美国 - 英语2025-05-06 09:00:00 - 阅读时长3分钟 - 1014字
一项由牛津大学主导的研究发现,人们在使用AI聊天机器人获取健康建议时,往往无法提供足够的信息,导致聊天机器人的建议不够准确,甚至可能导致低估病情的严重性。
健康建议聊天机器人自我诊断医疗决策健康状况识别科技公司AI应用可信信息源
研究发现人们难以从聊天机器人获得有用的健康建议

随着医疗系统负担过重、等待名单长和费用上升,许多人开始转向像ChatGPT这样的AI聊天机器人进行自我诊断。根据最近的一项调查,大约每六个美国成年人中就有一人每月至少使用一次聊天机器人来获取健康建议。

然而,过度依赖聊天机器人的输出可能是危险的,部分原因在于人们很难知道应该向聊天机器人提供哪些信息才能获得最佳的健康建议,这是最近由牛津大学领导的一项研究所揭示的。

“研究显示了双向沟通的失败,”牛津互联网研究院研究生部主任、该研究的共同作者Adam Mahdi告诉TechCrunch。“使用[聊天机器人]的人并没有比那些依靠传统方法(如在线搜索或自己的判断)的人做出更好的决策。”

在这项研究中,研究人员招募了约1,300名英国参与者,并向他们提供了由一组医生编写的医疗场景。参与者被要求识别这些场景中的潜在健康状况,并使用聊天机器人以及他们自己的方法来确定可能的行动方案(例如,看医生或去医院)。

参与者使用了ChatGPT的默认AI模型GPT-4o,以及Cohere的Command R+和Meta的Llama 3(后者曾支持Meta AI助手)。根据研究作者的说法,聊天机器人不仅使参与者更难识别相关的健康状况,还使他们更有可能低估所识别状况的严重性。

Mahdi表示,参与者在查询聊天机器人时经常遗漏关键细节,或者收到难以解读的答案。

“[他们]从聊天机器人那里得到的回答通常包含好的和差的建议,”他补充道。“当前对[聊天机器人]的评估方法并不能反映与人类用户互动的复杂性。”

这一发现正值科技公司越来越多地推动AI以改善健康结果之际。据报道,苹果正在开发一种能够提供与运动、饮食和睡眠相关建议的AI工具。亚马逊正在探索一种基于AI的方法来分析医疗数据库中的“社会健康决定因素”。微软也在帮助构建AI来处理患者发送给医疗服务提供者的消息。

但正如TechCrunch之前报道的那样,专业人士和患者对于AI是否准备好用于高风险健康应用的看法不一。美国医学会建议医生不要使用像ChatGPT这样的聊天机器人来辅助临床决策,而包括OpenAI在内的主要AI公司也警告不要根据其聊天机器人的输出进行诊断。

“我们建议依靠可信的信息来源来做医疗决策,”Mahdi说。“当前对[聊天机器人]的评估方法并不能反映与人类用户互动的复杂性。就像新药的临床试验一样,[聊天机器人]系统应在实际环境中测试后才能投入使用。”


(全文结束)

大健康
大健康