2026年十大医疗技术隐患
非党派患者安全组织就十大隐患发出警报。
关键要点:
- 医疗领域人工智能聊天机器人因可能传播错误信息并危害患者安全,位居ECRI(美国非党派患者安全组织)2026年医疗技术隐患榜首。
- 大型语言模型可能生成看似可信但内容错误的回复,包括虚构人体器官或建议危险医疗方案。
- 训练数据中嵌入的偏见可能导致聊天机器人强化现有健康差距与不平等现象。
- ECRI建议验证所有聊天机器人输出内容,并设立人工智能治理委员会以确保负责任使用。
人工智能(AI)聊天机器人在医疗领域的应用已被ECRI认定为2026年最重大的医疗技术隐患。尽管临床医生和患者日益使用基于大型语言模型(如ChatGPT、Claude、Copilot、Gemini和Grok)的聊天机器人,但这些工具未被监管为医疗器械,也未经医疗用途验证。ECRI指出,此类工具虽能提供有价值协助,却因生成虚假或误导性信息而威胁患者安全。
人工智能系统通过预测训练数据中学得的模式序列生成回复,而非理解上下文或含义。因此,即使信息不可靠,算法仍会输出看似自信的答案。
ECRI总裁兼首席执行官马库斯·沙巴克医学博士、哲学博士在声明中表示:“医学本质上是人类的事业。尽管聊天机器人是强大工具,但算法无法替代医疗专业人员的专业知识、教育背景和实践经验。实现人工智能潜力的同时保护民众,需要严格监督、详细指南及对人工智能局限性的清醒认知。”
人工智能幻觉风险
ECRI专家报告称,聊天机器人曾提出错误诊断、推荐不必要检查、推广低质医疗用品,甚至虚构人体器官却维持权威专家语气。
ECRI援引的具体案例中,当被问及电外科回路电极是否可放置于患者肩胛骨时,聊天机器人错误声称该位置合适。若遵循此建议,患者将面临烧伤风险。
报告指出,随着医疗成本上升及医疗机构关闭减少服务可及性,患者可能将聊天机器人替代专业医疗建议,从而加剧依赖风险。
加剧健康不平等
除直接身体风险外,报告强调聊天机器人可能恶化健康差距。训练数据中的偏见会扭曲信息解读,导致回复强化刻板印象与不平等。
沙巴克在声明中补充:“人工智能模型反映其训练所依据的知识与信念,包括所有偏见。若医疗利益相关方不够谨慎,人工智能可能进一步固化数十年来各方努力消除的健康系统差距。”
风险缓解建议
ECRI建议对影响患者护理的任何聊天机器人信息保持谨慎。具体风险降低措施包括:
- 验证:用户应始终通过权威知识来源核验聊天机器人提供的信息。
- 教育:临床医生和患者必须了解此类工具的局限性。
- 治理:医疗机构应设立人工智能治理委员会,为临床医生提供AI培训,并定期审计AI工具性能。
2026年十大医疗技术隐患
该年度报告基于事件调查、报告数据库及独立医疗器械测试识别关键问题。ECRI确认2026年十大隐患为:
- 医疗领域人工智能聊天机器人的误用
- 面对“数字黑暗”事件(电子系统突发中断)准备不足
- 劣质及伪造医疗器械
- 家用糖尿病管理技术召回信息传递失败
- 注射器或导管与患者管线错误连接
- 围手术期环境中药物安全技术使用不足
- 设备清洁说明不充分
- 陈旧医疗器械带来的网络安全风险
- 诱发危险临床工作流程的医疗技术实施
- 器械灭菌过程中的水质问题
【全文结束】

