根据OpenAI数据,全球每日超过4000万人通过ChatGPT获取健康信息。专注于医疗安全、质量和成本效益的非营利组织ECRI研究所警告,人工智能聊天机器人虽能帮助患者理解医学信息,但可能提供虚假或误导性内容,导致严重患者伤害。
在上周发布的年度报告中,ECRI将医疗领域AI聊天机器人的误用列为最重大的健康技术风险。ECRI指出,依赖大型语言模型(如ChatGPT、Claude、Copilot、Gemini和Grok)的聊天机器人能生成看似专业的人类化回复,但这些工具既未被监管为医疗器械,也未经医疗用途验证,却正被临床医生、患者及医疗人员广泛使用。
ECRI建议医疗专业人员在使用聊天机器人获取可能影响患者护理的信息时保持谨慎。"AI系统并非真正理解语境或含义,而是基于训练数据中的模式预测词序生成回复。它们被编程为始终提供自信的答案以取悦用户,即使答案不可靠,"ECRI高管表示。
ECRI总裁兼首席执行官马库斯·沙巴克尔博士(医学博士、哲学博士)声明:"医学本质上是人类的事业。尽管聊天机器人是强大工具,但算法无法替代医疗专业人员的专业知识、教育和经验。实现AI承诺的同时保护民众,需要严格的监管、详细的指南以及对AI局限性的清醒认知。"
ECRI专家指出,聊天机器人可能加剧现有健康不平等。训练数据中嵌入的任何偏见都会扭曲模型的信息解读,导致强化刻板印象和不平等的回复。沙巴克尔强调:"AI模型反映其训练所依据的知识和信念,包括所有偏见。若医疗利益相关方不谨慎,AI可能进一步固化数十年来各方努力消除的健康体系差异。"
据ECRI专家报告,聊天机器人曾给出错误诊断、推荐不必要检测、推销劣质医疗用品,甚至在回答医学问题时编造人体器官。当ECRI询问将电外科回路电极放置于患者肩胛骨是否可行时,某聊天机器人错误表示该位置适当——若照此操作,患者将面临烧伤风险。
患者、临床医生及其他聊天机器人用户可通过了解工具局限性并用权威来源验证信息来降低风险。ECRI建议医疗机构通过建立AI治理委员会、为临床医生提供AI培训、定期审计AI工具性能等方式推动负责任的AI使用。
在年度报告中,ECRI还对系统中断准备不足、劣质医疗产品以及家用糖尿病管理设备召回遗漏发出警报。2026年十大健康技术风险排名如下:
- 医疗领域AI聊天机器人的误用
- 对"数字黑暗"事件(即电子系统和患者信息突发中断)准备不足
- 劣质及伪造医疗产品
- 家用糖尿病管理技术的召回沟通失败
- 注射器或导管与患者管路的错误连接(尤其在ENFit和NRFit缓慢普及期间)
- 围手术期环境中药物安全技术利用不足
- 医疗设备清洁说明不充分
- 遗留医疗设备的网络安全风险
- 引发不安全临床工作流程的健康技术实施
- 器械灭菌过程中的水质不佳
ECRI自2008年起发布健康技术风险报告,通过严格的审查流程筛选主题,依据事故调查、报告数据库和独立医疗器械测试获取洞察。该报告旨在帮助医院、医疗系统、门诊手术中心及制造商降低风险。
【全文结束】

