患者中AI自诊现象的应对之道Adapting to the Rise in AI Self-Diagnosis Among Patients - The Cardiology Advisor

环球医讯 / AI与医疗健康来源:www.thecardiologyadvisor.com美国 - 英语2025-11-18 18:06:02 - 阅读时长2分钟 - 986字
美国精神病护士协会2025年年会研究警示,患者过度依赖AI生成的健康信息易引发误诊、错误治疗决策及伦理困境;医护人员需提升数字健康素养,与患者共同使用AI工具,倡导支持护理而非替代护理的伦理AI设计,并培训专业人员管理AI对话,同时加强监管确保信息准确性,以应对AI自诊现象激增带来的临床挑战与患者安全风险。
AI自诊健康患者风险误诊医患沟通缓解策略伦理挑战数字健康素养监管医疗AI
患者中AI自诊现象的应对之道

随着人工智能(AI)工具日益普及,越来越多患者转向AI进行自诊——往往伴随高风险后果。在美国路易斯安那州新奥尔良市举行的美国精神病护士协会第39届年会(APNA 2025,2025年10月15日至18日)上公布的研究警告,无节制依赖AI生成的健康信息可能导致误诊、错误治疗决策和伦理挑战。

该会议展示的海报重点强调了AI驱动自诊的相关风险,描述了应对误诊的缓解策略,并探讨了AI在医疗保健中应用的伦理影响。

AI提供快速答案

科罗拉多大学科罗拉多斯普林斯分校的克里斯滕·范德伯格(Kristen Vanderberg,DNP, FNP, PMHNP-BC)指出,患者使用AI自诊工具是因为该技术提供快速解答、帮助克服就医障碍、吸引不信任医护人员或希望匿名的患者,且受到市场营销和社交媒体的推广。

范德伯格博士开展的文献综述表明,无人监督使用AI不仅导致误诊,还可能延误专业诊疗并加剧患者焦虑。她表示:“虽然AI聊天机器人和症状检查器可提供一般健康见解,但缺乏临床判断时,结果的准确性和安全性仍不稳定。”误诊常源于临床背景缺失,因AI可能基于不完整的患者病史生成答案。此外,AI聊天机器人缺乏临床细微差别,其答案未必源自指南推荐的治疗算法。

降低风险的措施

降低患者AI自诊风险的策略之一是建立牢固的医患沟通。医护人员在承认患者外部调研的同时澄清AI的局限性,可提升患者信任度和依从性。

范德伯格博士的海报列出了医护人员缓解AI生成自诊担忧的具体步骤:

  1. 肯定患者理解自身健康的积极努力
  2. 提出开放式问题:“您在网上查到哪些令您担忧的信息?”
  3. 用循证信息澄清误解
  4. 强调临床评估和背景的重要性

她表示,这些措施将确保患者感到被倾听,并强化医患关系信任。

范德伯格博士强调,监管医疗AI的责任不应仅由医护人员承担,相关程序开发者有义务保障患者安全和信息准确性。加强监管监督和透明度对工具开发至关重要。

她呼吁医护人员和公众“在实践中提升数字健康素养,鼓励与患者共同使用AI工具,倡导支持护理而非替代护理的伦理AI设计,并培训医疗专业人员管理AI对话”。

本文首发于《临床顾问》

参考文献:

Vandenberg K. 谨慎前行:在AI时代引导患者远离自诊。海报展示于:APNA 2025;2025年10月15-17日;美国路易斯安那州新奥尔良市。海报编号196。

【全文结束】

大健康
大健康