牛津大学推出了一套新的指南,旨在创建医疗领域的可信AI系统。这是首次推出的FUTURE-AI指南,提供了涵盖医疗AI整个生命周期的建议,包括设计、开发、验证、监管、部署和监控。
近年来,人工智能(AI)在医疗领域取得了显著进展,帮助进行疾病诊断和预测治疗结果等任务。然而,尽管取得了这些进展,许多医疗专业人员和患者仍然对完全接受AI技术持犹豫态度。这种犹豫主要源于对信任、安全和伦理方面的担忧。
特别是,现有研究表明,医疗领域的AI工具容易出现错误和患者伤害、偏见和增加的健康不平等、缺乏透明度和问责制,以及数据隐私和安全漏洞等问题。
为克服这些挑战,FUTURE-AI联盟制定了一套全面的指南,并在《英国医学杂志》(BMJ)上发表。该指南由来自50个国家的117位专家组成的国际联盟开发,称为FUTURE-AI,为创建医疗领域的可信和负责任的AI工具提供了一个路线图。
FUTURE-AI指南基于六个指导原则:
- 公平性:AI应公平对待所有患者,不带偏见。
- 普适性:AI解决方案应适用于不同的医疗环境和人群。
- 可追溯性:应能够追踪AI系统的决策过程。
- 易用性:AI工具必须对医疗专业人员和患者都易于使用。
- 健壮性:AI系统应在各种条件下可靠运行。
- 可解释性:患者和临床医生需要清楚地了解AI是如何得出结论的。
“这些指南填补了医疗AI领域的一个重要空白,使临床医生、患者和卫生当局有信心采用AI工具,知道它们在技术上是可靠的、临床上是安全的,并且符合伦理。”牛津大学骨科、风湿病学和肌肉骨骼科学系(NDORMS)医学统计学教授Gary Collins表示。他也是FUTURE-AI的作者之一。
FUTURE-AI框架设计为随着时间的推移而不断演进,适应新技术、新挑战和利益相关者的反馈。这种动态方法确保指南在医疗AI领域快速发展的过程中保持相关性和实用性。
(全文结束)


