临床医生的视角:医疗领域XAI的核心考量
本研究通过半结构化访谈收集了11位荷兰临床医生的深度观点,揭示了可解释性人工智能(XAI)在医疗实践中的关键需求。临床医生普遍认可AI工具的潜力,但也提出了具体应用场景与实施挑战。
核心发现
- 应用方向:
- 行政流程优化:80%医疗任务属文书工作,AI可释放医生精力
- 临床风险预测:术前并发症概率预测、分娩方式智能判断等场景需求强烈
- 远程监测:通过可穿戴设备实现术后患者居家监测
- 技术偏好:
- 特征重要性评分因其直观性最受青睐,但医生担忧其过度简化可能引发认知偏差
- 反事实解释需符合临床因果逻辑(如调整参数后的预后变化)
- 规则型透明模型(如"2岁儿童不可能患乳腺癌")更符合诊断逻辑
- 实施挑战:
- 医患关系维护:警惕AI成为医患沟通的障碍
- 培训体系建设:现有医学教育缺乏AI素养培养
- 信任与责任分离:医生需为AI辅助决策承担最终责任
研究创新
首次从整体视角识别医疗XAI的通用需求,区别于传统聚焦特定工具的研究。发现临床医生的三大核心诉求:
- 视觉化解释界面(消除语言障碍)
- 模型不确定性提示(置信度评分)
- 临床背景信息透明(训练数据来源、验证方法)
实施路径
- 多学科协作:建立医生-数据科学家联合开发机制
- 渐进式应用:优先采用简单可解释模型(如规则系统)
- 变革管理:结合认知心理学设计培训体系
研究同时揭示了医疗AI应用的潜在风险:年轻医生可能过度依赖AI,而资深医生存在技术抵触倾向。建议通过神经科学指导界面设计,降低认知负荷。
【全文结束】


