一个由50个国家的117名研究人员组成的国际团队达成了共识,提出了六个应在全球范围内指导医疗保健中人工智能(AI)使用的准则。这六项原则分别是:公平性、普遍性、可追溯性、可用性、鲁棒性和可解释性。该团队以这些单词首字母组成的缩写命名,取了一个容易记住的名字:FUTURE-AI联盟。
本月在《英国医学杂志》(The BMJ)上发表的一篇论文中,联盟的一个较大子群体将这六项原则细分为30条详细的建议,用于构建值得信赖且易于部署的AI系统。论文的主要作者、巴塞罗那大学的Karim Lekadir博士及其合著者表示,该框架是“动态的”,意味着它会随着时间的推移而演变,以适应技术进步和利益相关者的反馈。
以下是每项原则的简要介绍摘录:
1. 公平性
作者解释说,医疗保健中的AI工具应在个人和群体之间保持相同的性能。他们写道:“AI驱动的医疗服务应该为所有公民平等提供。”研究团队承认,在实践中实现完美的公平性“可能无法达到”。因此,他们提出:“AI工具应尽可能识别、报告和最小化潜在的AI偏见,以实现理想情况下相同——但至少高度相似——的子组性能。”
2. 普遍性
医疗保健AI工具应能够在构建它的受控环境之外推广使用。具体而言,AI工具“应能够推广到新患者、新用户,以及在适用情况下推广到新的临床站点。”此外,他们指出:“医疗保健AI工具应尽可能具有互操作性和可转移性,以便大规模惠及患者和临床医生。”
3. 可追溯性
作者表示,医疗AI工具“应在开发、验证、部署和使用过程中配备记录和监控其完整轨迹的机制。”
他们解释说:“这将通过在整个生命周期内提供有关AI工具的详细和连续信息,增加透明度和责任感,使临床医生、医疗机构、公民和患者、AI开发者及相关当局受益。”
4. 可用性
Lekadir及其同事写道:“最终用户应能够在现实环境中高效且安全地使用AI工具来实现临床目标。”一方面,这意味着“最终用户应能够轻松使用AI工具的功能和界面,并尽量减少错误。”另一方面,“AI工具应具有临床实用性,提高临床医生的工作效率和/或改善患者的健康结果,避免造成伤害。”
5. 鲁棒性
作者指出,研究表明,即使是输入数据中的微小、难以察觉的变化也可能导致AI模型做出错误决策。生物医学和健康数据“在现实中可能会发生重大变化——无论是预期的还是意外的——这会影响AI工具的性能。”
他们强调:“重要的是,医疗保健AI工具的设计和开发应能抵御现实世界中的变化,应相应进行评估和优化。”
6. 可解释性
作者写道,医学是一个高风险学科,需要透明度、可靠性和责任感。然而,机器学习技术“通常会产生复杂的‘黑箱’模型。”
他们补充道:“可解释性使最终用户能够解释AI模型和输出,了解AI工具的能力和局限性,并在必要时进行干预,例如决定是否使用它。”
Lekadir等人承认,可解释性是一项复杂的任务,其挑战“需要在AI开发和评估过程中仔细解决”,以确保AI解释“对最终用户具有临床意义和益处”。
论文全文免费提供。
(全文结束)


