随着人工智能(AI)工具日益普及,越来越多患者转向AI进行自诊——往往伴随高风险后果。在美国路易斯安那州新奥尔良市举行的美国精神病护士协会第39届年会(APNA 2025,2025年10月15日至18日)上公布的研究警告,无节制依赖AI生成的健康信息可能导致误诊、错误治疗决策和伦理挑战。
该会议展示的海报重点强调了AI驱动自诊的相关风险,描述了应对误诊的缓解策略,并探讨了AI在医疗保健中应用的伦理影响。
AI提供快速答案
科罗拉多大学科罗拉多斯普林斯分校的克里斯滕·范德伯格(Kristen Vanderberg,DNP, FNP, PMHNP-BC)指出,患者使用AI自诊工具是因为该技术提供快速解答、帮助克服就医障碍、吸引不信任医护人员或希望匿名的患者,且受到市场营销和社交媒体的推广。
范德伯格博士开展的文献综述表明,无人监督使用AI不仅导致误诊,还可能延误专业诊疗并加剧患者焦虑。她表示:“虽然AI聊天机器人和症状检查器可提供一般健康见解,但缺乏临床判断时,结果的准确性和安全性仍不稳定。”误诊常源于临床背景缺失,因AI可能基于不完整的患者病史生成答案。此外,AI聊天机器人缺乏临床细微差别,其答案未必源自指南推荐的治疗算法。
降低风险的措施
降低患者AI自诊风险的策略之一是建立牢固的医患沟通。医护人员在承认患者外部调研的同时澄清AI的局限性,可提升患者信任度和依从性。
范德伯格博士的海报列出了医护人员缓解AI生成自诊担忧的具体步骤:
- 肯定患者理解自身健康的积极努力
- 提出开放式问题:“您在网上查到哪些令您担忧的信息?”
- 用循证信息澄清误解
- 强调临床评估和背景的重要性
她表示,这些措施将确保患者感到被倾听,并强化医患关系信任。
范德伯格博士强调,监管医疗AI的责任不应仅由医护人员承担,相关程序开发者有义务保障患者安全和信息准确性。加强监管监督和透明度对工具开发至关重要。
她呼吁医护人员和公众“在实践中提升数字健康素养,鼓励与患者共同使用AI工具,倡导支持护理而非替代护理的伦理AI设计,并培训医疗专业人员管理AI对话”。
本文首发于《临床顾问》
参考文献:
Vandenberg K. 谨慎前行:在AI时代引导患者远离自诊。海报展示于:APNA 2025;2025年10月15-17日;美国路易斯安那州新奥尔良市。海报编号196。
【全文结束】


