AI聊天机器人位列2026年医疗技术风险榜首AI chatbots top 2026 list of health tech hazards

环球医讯 / AI与医疗健康来源:www.msn.com美国 - 英语2026-02-05 23:37:37 - 阅读时长2分钟 - 784字
据紧急医疗研究所最新报告,AI聊天机器人因提供错误诊断、推荐非必要检查及放大医疗偏见等问题,被列为2026年十大医疗技术首要风险;数据显示日均超4000万人使用ChatGPT等工具获取健康信息,而这些未经医疗认证的工具常以专家口吻输出不可靠内容,可能加剧医疗资源不平等并导致患者伤害,专家强调人类医疗专业经验不可替代,需加强监管与用户教育以平衡技术潜力与安全风险。
健康AI聊天机器人医疗技术风险健康信息错误信息患者伤害大语言模型监管医疗不平等专业验证紧急医疗研究所
AI聊天机器人位列2026年医疗技术风险榜首

俄亥俄州克利夫兰——根据最新分析,日均超4000万人通过ChatGPT获取健康信息,与此同时,用于医疗领域的AI聊天机器人登上紧急医疗研究所《2026年最危险医疗技术风险清单》榜首。

聊天机器人虽具实用价值,但可能提供错误或误导性信息,导致患者伤害,该非党派患者安全组织在近期报告中指出。

依赖大语言模型的聊天机器人——如ChatGPT、Claude、Copilot、Gemini和Grok——能针对用户提问生成类人且看似专业的回答。报告强调,这些工具既未被监管为医疗器械,也未经医疗用途验证,却日益被临床医生、患者及医疗服务提供方采用。

报告指出:“(AI聊天机器人)被设计为始终以自信口吻提供答案以满足用户,即便答案不可靠。”聊天机器人曾给出错误诊断、推荐非必要检测、推广劣质医疗用品,甚至在医疗提问中虚构人体器官,同时表现得如同可信专家。

紧急医疗研究所首席执行官马库斯·沙巴克博士表示:“医疗本质上是人类事业。聊天机器人虽是强大工具,但其算法无法替代医疗专业人员的专业知识、教育背景与实践经验。实现AI潜力的同时保护民众,需要严格的监管、详尽的指南及对AI局限性的清醒认知。”

随着医疗成本上升,更多患者将聊天机器人作为专业医疗建议的替代品,其风险可能进一步加剧。研究所专家警告,聊天机器人还可能放大现有医疗不平等——训练数据中嵌入的任何偏见都会扭曲模型对信息的解读,导致回应强化刻板印象与不公现象。

患者、临床医生及其他用户可通过学习工具的局限性,并始终以专业信源验证聊天机器人提供的信息来降低风险。该研究所2026年风险清单还包括:医疗器械清洁说明不足、电子系统及患者信息突发中断的应对不足,以及劣质与伪造医疗产品。

紧急医疗研究所《十大医疗技术风险报告》已连续18年识别关键医疗技术问题,其数据源于事故调查、报告数据库及独立医疗器械测试。

【全文结束】