人工智能在医疗领域遭遇信任障碍 临床医生呼吁可解释性与共担责任AI in healthcare hits trust barrier as clinicians call for explainability and shared liability | Technology

环球医讯 / AI与医疗健康来源:www.devdiscourse.com意大利 - 英语2025-12-05 08:40:01 - 阅读时长5分钟 - 2147字
一项发表在《应用科学》杂志的新研究显示,尽管临床医生普遍认可人工智能在提升诊断速度、优化工作流程和辅助临床决策方面的潜力,但他们坚决主张AI系统应仅作为辅助工具而非人类判断的替代品。研究调查了193名影像相关专科的临床医生和医学物理师,发现意大利医院中AI的实际应用率偏低,主要障碍包括工具获取困难、培训不足、对算法生成逻辑的不确定性导致的信任缺失,以及法律责任界定模糊等问题。医生们强调,可解释的人工智能系统、共担责任机制和充分的医学专业输入是确保安全应用的关键,同时需警惕AI可能加剧医疗不平等和损害医患信任的风险,这凸显了技术能力之外的文化、治理与培训基础设施的重要性。
健康人工智能医疗临床医生信任障碍可解释性共担责任诊断工作流程adoption培训伦理责任归属自动化辅助患者护理
人工智能在医疗领域遭遇信任障碍 临床医生呼吁可解释性与共担责任

发表在《应用科学》杂志的一项新研究探讨了前线专业人员对医院中人工智能未来的看法。尽管人们对人工智能提升工作效率、改善诊断一致性及支持临床决策的能力日益看好,但医疗专业人员仍坚定认为,自动化系统必须严格作为辅助工具,而非取代人类判断。

该研究 findings 来自《增强而非取代:临床医生对医疗中人工智能采用的观点》,该研究调查了193名影像相关专科的临床医生和医学物理师,旨在追踪人工智能的使用现状、 adoption 缓慢的原因,以及医生眼中最大的机遇与威胁。

临床医生预期工作流程更快更准 但仍优先强调人类监督

在受访群体中,临床医生普遍认同人工智能将在诊断、影像和 workflow 管理中发挥日益重要的作用。许多受访者相信,人工智能将帮助他们更快、更准确地完成任务,尤其是经验不足十年的年轻专科医生。年长的临床医生也预期效率提升,但态度略显谨慎。

医生们指出,人工智能在多个领域价值显著:改进诊断工具、辅助形成准确诊断、支持治疗个性化与治疗监测,以及增强远程医疗服务。这些预期与医疗计算领域的 broader trends 一致,人工智能正助力图像分析、异常标记、健康数据分类并减轻重复性任务负担。

然而,研究发现这种乐观情绪存在明确界限。受访者 emerging 的核心主题是:人工智能应仅增强医生工作。其角色是提供自动化 second opinions、预分析数据和支持早期检测,而人类专业人员 retain 对临床判断和最终决策的责任。

临床医生强调,人工智能无法取代人类专业知识、临床直觉或患者护理 inherent 的伦理责任。这一信念在 survey 涵盖的所有专科中普遍存在。

持续障碍:获取困难、培训不足与信任缺失阻碍实际应用

尽管对人工智能潜力 interest 强劲,但意大利医院中的 real-world adoption 仍处于低位。研究 highlight 了影响 individual 临床医生、组织系统和制度框架的一系列结构性和实践性障碍。

个人层面,许多医生 report 在 workplace 中 simply 无法 access 人工智能工具。即使工具可用,部分临床医生 feel 他们缺乏有效使用的 adequate training。围绕人工智能推荐生成方式的不确定性 also undermines trust。临床医生 express concern 关于未充分融入医学 input 的系统,以及难以解读或解释的 outputs。

组织障碍 add another layer。拥有 strong research cultures 或创新导向 leadership 的医院 tend 更有效地 adopt 人工智能工具。相比之下,小型或 resource-constrained facilities(包括许多公立医院)常因资金 limited、管理保守或 capable 处理人工智能系统的 skilled personnel shortages 而 struggle。

制度与法律障碍 further complicate adoption。研究指出,许多临床医生对 major regulatory frameworks(包括欧盟人工智能法案) awareness limited。法律不确定性,特别是人工智能 errors 发生时的责任归属问题,使医院和从业人员 alike 产生 hesitation。

这些挑战表明,仅靠人工智能的技术能力不足以 guarantee 广泛 adoption。文化、治理与培训基础设施同样重要。

可解释性、问责制与伦理边界塑造医生对人工智能未来的观点

医生们呼吁可解释人工智能,既为建立 trust 也为确保安全临床应用。偏好因 specialty 而异:影像专业人员 favor 突出诊断图像相关区域的 visual explanations,而其他领域的临床医生 prefer 文本或示例-based explanations。

当被问及如何应对与自身判断 contradict 的人工智能 outputs 时,医生们既不 blind 接受也不 reject 结果。相反,多数人 investigate discrepancies 以理解 underlying causes。部分人寻求人类与人工智能 reasoning 的 synergy,另一些人则 revisit 双方流程以确定不一致的来源。

法律责任问题 also reveals mixed views。许多临床医生 believe liability 应在开发者、医院和用户间 shared,反映 medical AI 操作的复杂 ecosystem。极少受访者认为患者应在 care 中使用人工智能时 hold responsibility。

对人工智能风险的 concern remain present。临床医生 highlight 担忧包括道德主体性缺失、潜在损害医患 trust,以及通过有偏见的训练数据或 poor system design 强化 existing inequities 的可能性。

【全文结束】

大健康
大健康