如何让医学生使用人工智能而不丧失批判性思维能力?How can medical trainees use AI without losing critical thinking skills?

环球医讯 / AI与医疗健康来源:www.news-medical.net美国 - 英语2025-09-06 10:05:14 - 阅读时长2分钟 - 930字
本文探讨了医学生在使用人工智能辅助学习时面临的核心能力退化风险,提出DEFT-AI框架和人机协作模型来培养批判性思维。通过分析认知陷阱与自动化偏见,揭示了认知卸载可能带来的诊断失误风险,强调需通过结构化教育策略在技术依赖与临床技能培养间取得平衡,这对医学教育改革具有重要指导意义。
医学生人工智能批判性思维临床推理能力DEFT-AI框架人机协作模型信任跳跃链式思维提示法循证医学框架医疗不平等
如何让医学生使用人工智能而不丧失批判性思维能力?

在《新英格兰医学杂志》近日发表的综述中,研究者揭示了初入行的医学生使用大语言模型(LLMs)作为学习工具时面临的监管挑战。文中着重指出"技能退化"(deskilling)风险——过度依赖人工智能会削弱基础临床推理能力;"错误技能习得"(mis-skilling)——采纳AI生成的错误信息;以及"从未习得核心技能"(never-skilling)三大核心问题。

研究团队提出名为"诊断、证据、反馈、教学、推荐与人工智能互动"(DEFT-AI)的结构化教育框架,并引入"生化人"(cyborg)和"半人马"(centaur)两种人机协作模型。前者强调医生与AI共同构建解决方案,适用于低风险常规任务但需警惕自动化偏见;后者主张医生保留高风险决策主导权,仅将AI用于数据整理等基础工作。这两种模型旨在帮助医生培养对AI输出的批判性审视能力。

文章特别指出"信任跳跃"现象——当临床工作者无法完全追溯AI输出时,需采取批判性停顿来评估其可靠性。数据显示,超过三分之一的高年级医学生未能识别LLM在临床场景中的错误答案,频繁使用AI工具反而与批判性思维能力呈显著负相关,这种影响在年轻群体中尤为明显。

研究建议采用链式思维提示法(chain-of-thought prompting)要求AI逐步解释推理过程,同时运用萨克特循证医学框架(ask, acquire, appraise, apply, assess)评估AI输出。教育者应通过"你使用的提示词是什么?""如何验证AI生成的内容?"等引导性问题,促进学习者超越AI答案本身进行深入思考。

值得注意的是,LLM的性能异质性和潜在偏见可能加剧医疗不平等。研究警示,若不加以规范,技术应用可能扩大而非缩小不同人群间的医疗差距。文章最终强调,医学教育必须通过重构临床推理教学方式,培养能够在AI辅助下保持自主判断的新型医疗人才,实现"验证后再信任"(verify and trust)的智能应用范式。

【全文结束】