专家警告:过度依赖人工智能可能削弱新医生和未来医生的批判性思维并强化现有偏见
由《英国医学杂志》发布
编辑:萨迪·哈雷,审阅:罗伯特·伊根
一篇发表在在线期刊《BMJ循证医学》的社论警告称,过度依赖生成式人工智能可能侵蚀新医生和未来医生的批判性思维技能,同时可能强化现有数据偏见和不平等。作者指出,生成式人工智能工具已在缺乏机构政策和监管指导的情况下被广泛使用,他们敦促医学教育工作者保持警惕,并调整课程和培训以减轻该技术的缺陷。
人工智能在医学中的潜在风险
美国密苏里大学哥伦比亚分校的作者指出,人工智能现已被用于各种不同任务,但随着其蓬勃发展的潜力,对医学生和实习医生的过度依赖风险及其一系列潜在问题也在增加。
这些风险包括:
- 自动化偏见——长期使用后对自动信息的不加批判的信任
- 认知卸载和推理外包——将信息检索、评估和综合转移给人工智能,从而削弱批判性思维和记忆保持
- 技能退化——技能钝化,这对正在学习技能的医学生和新获资格的医生尤为重要,因为他们缺乏经验来探究人工智能的建议
- 强化现有数据偏见和不平等
- 幻觉——流畅且看似合理但不准确的信息
- 隐私、安全和数据治理的漏洞——鉴于医疗数据的敏感性,这是一个特别的问题
对医学教育的建议
作者建议进行各种变更以帮助最小化这些风险,包括在教育评估中考量过程而非仅最终产品,假设学习者将使用人工智能。
作者建议,需要设计排除人工智能的关键技能评估,使用监督站点或现场考试——这对床边沟通、体格检查、团队合作和专业判断尤为重要。
他们还补充说,将人工智能本身评估为一项能力可能是明智的,因为“数据素养以及教授人工智能设计、开发和评估比以往任何时候都更为重要,这种知识对医学学习者和实习生来说不再是一种奢侈品”。
作者强调,医学实习生需要了解支撑人工智能优缺点的原则和概念,以及人工智能工具如何有用地整合到临床工作流程和护理路径中。实习生还需要知道如何随时间评估其预期表现和潜在偏见。
作者建议:“尤其需要加强批判性思维教学,可以通过构建人工智能输出包含正确和故意错误响应混合的案例来实现。……学习者随后将接受、修改或拒绝这些输出,并用基于原始证据的来源证明其决定。”
监管机构和机构的作用
作者敦促全球的监管机构、专业协会和教育协会也发挥作用,通过制定和定期更新关于人工智能对医学教育影响的指南。
他们总结道:“生成式人工智能有记录在案且研究充分的益处,但并非没有缺陷,特别是对医学教育和新手学习者而言。这些工具可以伪造来源、编码偏见、导致过度依赖,并对教育旅程产生负面破坏性影响。
“医学项目必须对这些风险保持警惕,并调整其课程和培训计划,以领先于这些风险并减轻其发生的可能性。”
更多信息:雅各布·豪等人,《生成式人工智能对医学教育的潜在风险》,《BMJ循证医学》(2025)。DOI: 10.1136/bmjebm-2025-114339
由《英国医学杂志》提供
【全文结束】


