新框架将医学知识、实践、程序和价值观纳入医疗保健中的人工智能应用New framework for using AI in health care considers medical knowledge, practices, procedures, values | ScienceDaily

环球医讯 / AI与医疗健康来源:www.sciencedaily.com美国 - 英语2026-03-01 16:41:56 - 阅读时长3分钟 - 1274字
美国卡内基梅隆大学联合多伦多病童医院、达拉·拉纳公共卫生学院等机构研究人员提出创新性框架,指导人工智能在医疗领域的负责任应用。该框架突破传统仅关注技术性能的局限,将医学知识体系、临床实践规范、操作程序流程及伦理价值观整合为"社会技术系统",强调AI工具必须融入医疗社会环境才能发挥最大价值。研究指出当前70%以上临床AI应用效果不佳的主因是忽视系统整合,新框架为设计者、监管机构提供实操指南,特别针对糖尿病视网膜病变诊断等场景验证了其有效性,有望解决医疗AI落地难问题并提升患者获益。
健康人工智能医疗保健框架医学知识实践程序价值观社会技术系统患者护理伦理评估临床应用
新框架将医学知识、实践、程序和价值观纳入医疗保健中的人工智能应用

医疗机构正寻求利用人工智能(AI)工具改善患者护理,但由于评估医疗保健中的AI仍具挑战性,这些工具在临床环境中的应用一直不一致。在一篇新文章中,研究人员提出了一个使用AI的框架,该框架包含应用价值观的实用指南,并不仅考量工具本身的特性,还纳入其使用所处的系统环境。

本文由卡内基梅隆大学(Carnegie Mellon University)、多伦多病童医院(The Hospital for Sick Children)、达拉·拉纳公共卫生学院(Dalla Lana School of Public Health)、哥伦比亚大学(Columbia University)和多伦多大学(University of Toronto)的研究人员撰写,发表在《Patterns》期刊。

卡内基梅隆大学伦理与计算技术K&L Gates教授、文章合著者亚历克斯·约翰·伦敦(Alex John London)解释道:"监管指南和机构方法过于聚焦AI工具的性能表现,忽视了将模型整合到更大医疗实践社会系统所需的知识、实践和程序。工具并非中立——它们反映我们的价值观——因此其运作方式体现了它们被部署其中的人员、流程和环境。"

伦敦同时担任卡内基梅隆大学伦理与政策中心(Center for Ethics and Policy)主任、技术与社会Block中心(Block Center for Technology and Society)首席伦理学家,以及该校哲学系教师。

伦敦及其合著者主张概念转变:将AI工具视为更大"干预集合"的组成部分,即向患者提供护理所必需的知识体系、实践规范和操作程序。此前与其他同事合作时,伦敦已将此概念应用于制药和自动驾驶汽车领域。该方法将AI工具定位为"社会技术系统",作者提出的框架旨在促进AI系统负责任地融入医疗保健体系。

该领域先前研究多为描述性,解释AI系统如何与人类系统互动。而伦敦团队提出的框架具有前瞻性,为设计者、资助方和使用者提供实操指导,确保AI系统能整合到工作流程中以最大化患者获益。该方法同样适用于监管规范制定、机构决策,以及负责任且合乎伦理地评估和使用AI工具。为验证框架有效性,作者将其应用于中度及以上糖尿病视网膜病变诊断系统的开发。

文章合著者、多伦多病童医院生物伦理学家兼达拉·拉纳公共卫生学院临床与公共卫生助理教授梅丽莎·麦克拉登(Melissa McCradden)表示:"仅少数通过临床试验评估的模型显示出净效益。我们期望新框架能提升评估精确度,并引导监管机构明确支持AI系统监管所需的证据类型。"

参考文献:

  1. Melissa D. McCradden, Shalmali Joshi, James A. Anderson, Alex John London. 《医疗保健中作为社会技术系统的人工智能的规范框架》. 《Patterns》, 2023; 4 (11): 100864

【全文结束】