宾夕法尼亚州威洛格罗夫,2026年1月21日 /PRNewswire/ -- 人工智能(AI)聊天机器人在医疗保健领域的应用高居2026年最重大医疗技术风险榜首。该报告由独立、无党派的患者安全组织ECRI(美国医疗质量研究机构)每年编制。
依赖大型语言模型(LLMs)的聊天机器人——如ChatGPT、Claude、Copilot、Gemini和Grok——能够对用户的问题生成类似人类且听起来专业权威的回答。这些工具并未作为医疗设备受到监管,也未经医疗用途验证,但正被临床医生、患者和医疗人员越来越多地使用。根据OpenAI最近的一项分析,每天有超过4000万人向ChatGPT寻求健康信息。
ECRI表示,聊天机器人可以提供有价值的帮助,但也可能提供虚假或误导性信息,可能导致严重的患者伤害。因此,ECRI建议在使用聊天机器人获取可能影响患者护理的信息时应保持谨慎。AI系统并非真正理解上下文或含义,而是基于训练数据中学习到的模式预测词序列来生成回答。它们被编程为始终提供自信的回答以满足用户,即使答案并不可靠。
"医学本质上是一项人类事业。虽然聊天机器人是强大的工具,但算法无法替代医疗专业人员的专业知识、教育和经验,"ECRI总裁兼首席执行官马库斯·沙巴克博士(MD, PhD)表示。"要实现AI的承诺同时保护人们,需要严格的监督、详细的指南以及对AI局限性的清醒认识。"
ECRI专家表示,聊天机器人曾建议错误的诊断、推荐不必要的检测、推广低质量医疗用品,甚至在回答医疗问题时编造人体部位,同时听起来像值得信赖的专家。例如,当ECRI询问将电外科回路电极放置在患者肩胛骨上是否可接受时,一个聊天机器人错误地表示这种放置是适当的——如果遵循这一建议,将使患者面临烧伤风险。
随着医疗成本上升和医院或诊所关闭减少了医疗服务的可及性,导致更多患者将聊天机器人作为专业医疗建议的替代品,使用聊天机器人进行医疗决策的风险可能变得更加令人担忧。ECRI的患者安全专家将于1月28日通过现场网络直播讨论医疗保健中AI聊天机器人的隐藏危险。
根据ECRI专家的说法,聊天机器人还可能加剧现有的健康差距。用于训练聊天机器人的数据中嵌入的任何偏见都可能扭曲模型解释信息的方式,导致强化刻板印象和不平等的回答。
"AI模型反映了其训练所依据的知识和信念,包括所有偏见,"沙巴克博士表示。"如果医疗保健利益相关者不小心,AI可能会进一步巩固许多人几十年来一直努力从卫生系统中消除的差距。"
ECRI的报告提供了更明智使用聊天机器人的建议。患者、临床医生和其他聊天机器人用户可以通过了解工具的局限性,并始终用知识渊博的来源验证从聊天机器人获得的信息来降低风险。医疗机构方面,可以通过建立AI治理委员会、为临床医生提供AI培训以及定期审核AI工具的性能来促进AI工具的负责任使用。
2026年十大医疗技术风险按排名顺序如下:
- 医疗保健中AI聊天机器人的误用
- 对"数字黑暗"事件,或突然无法访问电子系统和患者信息的准备不足
- 低质量和伪造的医疗产品
- 家用糖尿病管理技术召回沟通失败
- 注射器或管路与患者导管的错误连接,特别是在ENFit和NRFit采用缓慢的情况下
- 围手术期环境中药物安全技术利用不足
- 不充分的设备清洁说明
- 旧版医疗设备带来的网络安全风险
- 导致不安全临床工作流程的医疗技术实施
- 器械灭菌过程中的水质不良
ECRI的《十大医疗技术风险》报告现已进入第18个年头,该报告确定了关键的医疗技术问题。ECRI遵循严格的审查流程来选择主题,从事件调查、报告数据库和独立医疗设备测试中获取见解。自2008年创建以来,该报告一直支持医院、医疗系统、门诊手术中心和制造商降低风险。
《十大医疗技术风险》报告的执行摘要可下载获取。完整报告可供ECRI会员查阅,包括组织和行业可采取的详细步骤,以降低风险并提高患者安全。
【全文结束】

