可解释的人工智能在医疗保健中的临床应用和可用性Interpretable AI in healthcare: clinical applicability and usability

AI与医疗健康 / 来源:www.nature.com美国 - 英语2024-09-24 22:00:00 - 阅读时长2分钟 - 545字
本文探讨了可解释的人工智能在医疗保健领域的临床应用和可用性,强调了透明度和解释性对于实际操作的重要性。
可解释人工智能医疗保健临床应用可用性黑箱深度学习系统可解释性人机交互可审计性基准数据集
可解释的人工智能在医疗保健中的临床应用和可用性

尽管人们热切期待人工智能(AI)能够在临床决策过程中显著推动医疗保健领域的变革,但AI的临床应用仍处于有前景的阶段。一个关键瓶颈在于传统的“黑箱”深度学习AI模型(例如,深度神经网络)缺乏系统可解释性、解释性和透明度:用户只能获得结果而无法了解计算过程。在临床实践中,这种不透明的方式和信息不对称阻碍了顺畅的人机交互,并成为AI进入现实世界时的实际操作障碍。可解释和可解释的AI可以输出相关变量及其可能的因果关系,这不仅提供了疾病进展的见解,还通过监控变量和揭示潜在漏洞展示了可审计性,从而加强用户在实际场景中对AI的监管和信任。然而,可解释的AI仍远未达到临床应用和可用性的标准:目前阶段,解释性的质量尚未完全得到验证;由于缺乏广泛认可的基准数据集,AI解释性的局限性尚未充分注意;在技术和实用层面之间平衡AI的解释性和性能通常难以满足可用性要求。

为了弥合AI在临床应用和可用性之间的差距,本专题聚焦于医疗保健领域AI的可解释性视角,而非可解释的AI模型不在本专题范围内。我们欢迎开发可解释的AI工具,评估或验证可解释的AI模型,进行外部、多中心或跨数据库验证的可解释AI模型,基于可解释AI的临床决策支持系统或实用框架,以及其他深入开发或评估可解释AI增强的临床应用性。


(全文结束)