人工智能(AI)正日益融入临床环境,引发了关于信任、公平、同理心和治理的问题。尽管AI在医学领域的应用迅速普及,但围绕其的伦理环境仍然不稳定。我们提出了"医疗AI七大死罪"的概念框架,这是一个描述反复出现的系统性失败模式的理论框架:(i)盲目信任,(ii)过度监管,(iii)非人化,(iv)错位优化,(v)信息过载和错误预测,(vi)误用统计学,(vii)自我参照评估。该框架是在任何实证数据收集之前,通过系统综合科学文献、临床指南和监管框架而开发的。为了验证这一预先建立的框架,我们在2024年7月至2025年3月期间对来自143个国家的914名利益相关者进行了全球跨专业意见调查。结果证实了对每个预先识别风险的广泛共识,揭示了伦理关注的跨文化趋同,同时在监管态度上存在持续分歧——特别是在技术先进国家和新兴经济体之间。我们进一步提出将该框架反转为医疗AI的七大基本美德,提供指导负责任开发和治理的可操作原则。目标是超越零散的伦理指南,建立一个统一的诊断工具,用于可信的、以人为本的医疗AI。
所有匿名数据、图表和分析脚本均在(https:/github.com/human-centered-ai-lab/7-sins-of-medical-ai)公开提供。
数据可视化和统计分析代码在相同仓库下以开源许可方式提供。
本工作得到了奥地利科学基金(FWF)在10.55776/P-32554 "可解释人工智能"项目下的支持。
A.H.和H.M.设计了调查问卷。H.M.进行了数据分析并准备了图表。A.H.和H.M.撰写了初稿。V.L.P.、E.H.S.和I.J.为概念框架和稿件修订做出了贡献。所有作者审阅并批准了最终版本。
【全文结束】

