在《新英格兰医学杂志》近日发表的综述中,研究者揭示了初入行的医学生使用大语言模型(LLMs)作为学习工具时面临的监管挑战。文中着重指出"技能退化"(deskilling)风险——过度依赖人工智能会削弱基础临床推理能力;"错误技能习得"(mis-skilling)——采纳AI生成的错误信息;以及"从未习得核心技能"(never-skilling)三大核心问题。
研究团队提出名为"诊断、证据、反馈、教学、推荐与人工智能互动"(DEFT-AI)的结构化教育框架,并引入"生化人"(cyborg)和"半人马"(centaur)两种人机协作模型。前者强调医生与AI共同构建解决方案,适用于低风险常规任务但需警惕自动化偏见;后者主张医生保留高风险决策主导权,仅将AI用于数据整理等基础工作。这两种模型旨在帮助医生培养对AI输出的批判性审视能力。
文章特别指出"信任跳跃"现象——当临床工作者无法完全追溯AI输出时,需采取批判性停顿来评估其可靠性。数据显示,超过三分之一的高年级医学生未能识别LLM在临床场景中的错误答案,频繁使用AI工具反而与批判性思维能力呈显著负相关,这种影响在年轻群体中尤为明显。
研究建议采用链式思维提示法(chain-of-thought prompting)要求AI逐步解释推理过程,同时运用萨克特循证医学框架(ask, acquire, appraise, apply, assess)评估AI输出。教育者应通过"你使用的提示词是什么?""如何验证AI生成的内容?"等引导性问题,促进学习者超越AI答案本身进行深入思考。
值得注意的是,LLM的性能异质性和潜在偏见可能加剧医疗不平等。研究警示,若不加以规范,技术应用可能扩大而非缩小不同人群间的医疗差距。文章最终强调,医学教育必须通过重构临床推理教学方式,培养能够在AI辅助下保持自主判断的新型医疗人才,实现"验证后再信任"(verify and trust)的智能应用范式。
【全文结束】