新指南助力构建医疗研究中的可信AINew guidelines to build trusted AI in healthcare research

环球医讯 / AI与医疗健康来源:www.news-medical.net英国 - 英语2025-03-18 19:00:00 - 阅读时长2分钟 - 788字
牛津大学发布了一套新的指南,旨在创建医疗领域的可信AI系统。这些指南涵盖了从设计、开发和验证到监管、部署和监控的整个医疗AI生命周期,并提出了六个指导原则,以确保AI工具的技术可靠性、临床安全性和伦理一致性。
医疗研究可信AIFUTURE-AI指南人工智能疾病诊断信任担忧公平性普适性可追溯性易用性健壮性可解释性
新指南助力构建医疗研究中的可信AI

牛津大学推出了一套新的指南,旨在创建医疗领域的可信AI系统。这是首次推出的FUTURE-AI指南,提供了涵盖医疗AI整个生命周期的建议,包括设计、开发、验证、监管、部署和监控。

近年来,人工智能(AI)在医疗领域取得了显著进展,帮助进行疾病诊断和预测治疗结果等任务。然而,尽管取得了这些进展,许多医疗专业人员和患者仍然对完全接受AI技术持犹豫态度。这种犹豫主要源于对信任、安全和伦理方面的担忧。

特别是,现有研究表明,医疗领域的AI工具容易出现错误和患者伤害、偏见和增加的健康不平等、缺乏透明度和问责制,以及数据隐私和安全漏洞等问题。

为克服这些挑战,FUTURE-AI联盟制定了一套全面的指南,并在《英国医学杂志》(BMJ)上发表。该指南由来自50个国家的117位专家组成的国际联盟开发,称为FUTURE-AI,为创建医疗领域的可信和负责任的AI工具提供了一个路线图。

FUTURE-AI指南基于六个指导原则:

  1. 公平性:AI应公平对待所有患者,不带偏见。
  2. 普适性:AI解决方案应适用于不同的医疗环境和人群。
  3. 可追溯性:应能够追踪AI系统的决策过程。
  4. 易用性:AI工具必须对医疗专业人员和患者都易于使用。
  5. 健壮性:AI系统应在各种条件下可靠运行。
  6. 可解释性:患者和临床医生需要清楚地了解AI是如何得出结论的。

“这些指南填补了医疗AI领域的一个重要空白,使临床医生、患者和卫生当局有信心采用AI工具,知道它们在技术上是可靠的、临床上是安全的,并且符合伦理。”牛津大学骨科、风湿病学和肌肉骨骼科学系(NDORMS)医学统计学教授Gary Collins表示。他也是FUTURE-AI的作者之一。

FUTURE-AI框架设计为随着时间的推移而不断演进,适应新技术、新挑战和利益相关者的反馈。这种动态方法确保指南在医疗AI领域快速发展的过程中保持相关性和实用性。


(全文结束)

大健康
大健康