随着人工智能(AI)在医学院校的应用日益广泛,马纳杰·辛格·切马博士(图)强调,必须教导学生成为这些工具的审慎且负责任的使用者。
这位博特拉大学医学院与健康科学学院分子毒理学高级讲师向《星报教育版》表示:"在临床环境中,若学生盲目接受人工智能的诊断建议而不进行验证,风险将更为严重,这可能导致真实伤害。"
马纳杰博士近期荣获马来西亚高等教育 ministry 颁发的第16届国家学术奖健康科学类别教学奖。他补充指出,在医学领域,自动化偏见——即倾向于信任有缺陷的AI输出结果的倾向——的危险性可能导致因算法仅基于常见病例训练而遗漏罕见诊断。
"为防范此风险,我们需要更完善的AI可解释性、严格的临床验证,以及最重要的是人类监督。无论工具多么先进,最终责任必须由临床医生承担。人工智能必须增强而非取代临床判断,"他强调。
谈及过度依赖作为AI使用的重大伦理隐忧,他表示若学生过度依赖AI生成的答案,可能停止批判性思考。
"还存在未披露使用的风险:提交主要由AI撰写且自身未理解的内容,将引发关于作者身份、诚信和能力的质疑,"他补充道。
作为马来西亚科学院青年科学家网络成员,马纳杰博士负责领导国家级和东盟层面的研究诚信培训,他呼吁医学院校加强学生应对AI影响未来的准备。
"认知度正在提升,但大多数课程尚未系统化纳入AI素养或数字伦理。这一现状亟需改变。人工智能已非未来技术,它正渗透至医院和诊所。我们应当培养学生不仅会使用它,更要质疑它、审计它并以合乎伦理的方式塑造它,"他说。
马纳杰博士强调在AI时代批判性思维、临床判断和伦理辨别力的重要性。
"医生需要成为AI通晓者——未必是编码人员,但须是理解系统运作原理、知晓其局限性并能质疑输出结果的熟练使用者。我们还需要谦逊——懂得何时应遵从机器;更需要勇气——明白何时应推翻机器决策,"他表示。
他指出,人工智能的真正价值在于学生用它挑战自身认知,而非 shortcuts 学习过程。
"若学生直接复制粘贴AI生成内容并提交为个人思考,这构成学术不端。但若学生利用AI生成观点、厘清解释,再通过规范引用或披露加以深化,它便成为合法工具。伦理界限在于你是否掌控了智力过程,"他解释道。
马纳杰博士注意到,马来西亚现已出台科学工艺及革新 ministry 的《国家人工智能治理与伦理指南》以及马来西亚医学理事会的《医疗实践中人工智能伦理使用指南》。
"这些文件确立了医生和机构应遵循的核心伦理原则,如问责制、透明度和患者安全,"他说。
然而,他主张在机构层面需制定关于披露、作者身份及学术工作中可接受AI使用的明确政策。
"对于临床培训,应明确定义AI工具的使用场景与方式、输出结果的验证流程,以及评估学生——不仅考核工具使用能力,更评价其判断力。但比政策更重要的是开展对话——开放、批判性的讨论有助于学生在快速变化的数字环境中培养伦理本能。毕竟伦理不仅是政策,更是实践,"他表示。
对学生的建议是:"把AI当作白板而非拐杖使用。让它辅助你头脑风暴、验证观点或解释复杂议题,但切勿让它代劳工作。撰写作业时,可向AI寻求结构或提示,但内容需亲笔完成。务必核查事实,若显著使用AI,请坦诚披露。这是伦理问责的一部分,也证明你真正理解而非简单复制。"
【全文结束】


