医学生和住院医生过度依赖生成式人工智能(AI)可能削弱未来医生的批判性思维能力,同时强化现有医疗偏见,《英国医学杂志》一篇社论发出警示。来自密苏里大学(University of Missouri)的作者们呼吁医学教育者保持警惕,及时调整课程设置与培训体系以规避技术风险。文章指出,当前生成式AI工具已广泛使用,但机构政策与监管指导严重缺失。
社论强调,医学生和住院医生过度依赖AI存在多重风险,包括自动化偏见、技能退化、认知卸载及推理外包等。长期使用AI工具后对自动化信息的无条件信任,将损害批判性思维与记忆留存能力——这对医疗职业至关重要。鉴于医疗数据的高度敏感性,安全漏洞与隐私侵害及数据治理风险尤为突出。
报告建议设计排除AI的临床技能评估体系,采用监督式站点考核或现场考试形式,重点考察床边沟通、体格检查、团队协作与专业判断能力。同时推荐将AI评估本身作为必备能力,因为"数据素养以及AI设计、开发与评估教学比以往任何时候都更为重要,此类知识对医学生而言已非奢侈品"。
作者特别强调,医学生必须理解支撑AI优劣势的基本原理与核心概念,并掌握AI工具在临床工作流程与诊疗路径中的适用场景及正确整合方法。文章敦促监管机构、专业学会及教育协会采取行动,定期发布AI对医学教育影响的指导方针。
近期研究已证实人工智能在医疗领域的负面影响:由多所英美顶尖大学开展的系列研究表明,基于大型语言模型(LLMs)的医疗AI工具存在系统性偏见,常淡化女性患者的症状严重程度,且对黑人及亚裔群体表现出共情缺失。当前AI技术正加速融入爱尔兰卫生系统,尤其在医学影像与诊断领域,都柏林玛特医院(Mater hospital in Dublin)今年初已成立AI与数字健康新中心。今年十月,医学委员会(Medical Council)发布关于AI职业应用的立场文件,指出AI发展为医生带来"重大"的伦理、法律、监管及专业挑战。
【全文结束】


