数字医学中人工智能的七大死罪Seven deadly sins in artificial intelligence for digital medicine | npj Digital Medicine

环球医讯 / AI与医疗健康来源:www.nature.com奥地利 - 英语2026-05-16 17:12:46 - 阅读时长2分钟 - 742字
本研究提出了"医疗AI七大死罪"概念框架,系统阐述了人工智能在医学应用中的七种系统性失败模式:盲目信任、过度监管、非人化、错位优化、信息过载与错误预测、误用统计学以及自我参照评估。研究团队通过综合分析科学文献、临床指南和监管框架构建该框架,并对143个国家914名利益相关者进行全球性调查验证,证实了各风险点的普遍共识,同时揭示了不同文化背景下伦理关注的趋同性以及对监管态度的持续分歧,特别是在技术先进国家与新兴经济体之间。研究还创新性地将该框架转化为医疗AI的七大基本美德,为负责任的AI开发与治理提供可操作原则,旨在超越零散的伦理指南,建立统一的诊断工具,推动可信、以人为本的医疗人工智能发展。
医疗AI医疗AI七大死罪医疗AI七大基本美德以人为本医疗AI医疗AI伦理医疗AI治理
数字医学中人工智能的七大死罪

人工智能(AI)正日益融入临床环境,引发了关于信任、公平、同理心和治理的问题。尽管AI在医学领域的应用迅速普及,但围绕其的伦理环境仍然不稳定。我们提出了"医疗AI七大死罪"的概念框架,这是一个描述反复出现的系统性失败模式的理论框架:(i)盲目信任,(ii)过度监管,(iii)非人化,(iv)错位优化,(v)信息过载和错误预测,(vi)误用统计学,(vii)自我参照评估。该框架是在任何实证数据收集之前,通过系统综合科学文献、临床指南和监管框架而开发的。为了验证这一预先建立的框架,我们在2024年7月至2025年3月期间对来自143个国家的914名利益相关者进行了全球跨专业意见调查。结果证实了对每个预先识别风险的广泛共识,揭示了伦理关注的跨文化趋同,同时在监管态度上存在持续分歧——特别是在技术先进国家和新兴经济体之间。我们进一步提出将该框架反转为医疗AI的七大基本美德,提供指导负责任开发和治理的可操作原则。目标是超越零散的伦理指南,建立一个统一的诊断工具,用于可信的、以人为本的医疗AI。

所有匿名数据、图表和分析脚本均在(https:/github.com/human-centered-ai-lab/7-sins-of-medical-ai)公开提供。

数据可视化和统计分析代码在相同仓库下以开源许可方式提供。

本工作得到了奥地利科学基金(FWF)在10.55776/P-32554 "可解释人工智能"项目下的支持。

A.H.和H.M.设计了调查问卷。H.M.进行了数据分析并准备了图表。A.H.和H.M.撰写了初稿。V.L.P.、E.H.S.和I.J.为概念框架和稿件修订做出了贡献。所有作者审阅并批准了最终版本。

【全文结束】