解锁可解释的人工智能以实现可信的医疗保健Unlocking AI Explainability for Trustworthy Healthcare

环球医讯 / AI与医疗健康来源:medcitynews.com丹麦 - 英语2024-12-19 23:00:00 - 阅读时长5分钟 - 2119字
本文探讨了人工智能在医疗保健领域的应用,强调了可解释性对于建立信任和确保患者安全的重要性,并介绍了实现可解释性的方法及其在医疗决策中的作用。
可解释人工智能医疗保健人类医疗提供者患者安全可解释性路径医疗专业人员人工智能偏见可信人工智能
解锁可解释的人工智能以实现可信的医疗保健

人工智能应增强而非替代人类医疗提供者的专业知识。可解释性使医疗专业人员能够与人工智能协同工作,确保患者获得最准确和全面的护理。

你会盲目信任人工智能来做出涉及个人、财务、安全或隐私的重要决定吗?像大多数人一样,答案可能是否定的。相反,你会希望了解它是如何得出这些决定的,考虑其理由,然后基于这些信息做出自己的决定。

这个过程被称为人工智能的可解释性,是实现可信人工智能的关键——即既可靠又道德的人工智能。随着敏感行业如医疗保健继续扩大人工智能的应用,确保人工智能模型的可信度和可解释性对于保障患者安全至关重要。没有可解释性,研究人员无法完全验证人工智能模型的输出,因此无法信任这些模型在高风险情况下支持医疗提供者。随着医院面临人员短缺和提供者倦怠的问题,对人工智能的需求不断增长,以减轻行政负担和支持诸如医学编码、环境记录和决策支持等任务。但如果没有适当的可解释性,患者安全仍然处于风险之中。

什么是人工智能的可解释性?

随着机器学习(ML)模型变得越来越先进,人类需要理解算法到达结果的步骤。在医疗保健行业,这意味着要求提供者追溯算法如何得出潜在诊断的过程。尽管这些模型取得了巨大的进展和洞察力,大多数机器学习引擎仍保留着“黑箱”,意味着它们的计算过程无法解析或追踪。

进入可解释性。虽然可解释的人工智能——也称为XAI——仍然是一个新兴概念,需要更统一和精确的定义,但它主要指的是机器学习模型的推理过程可以以一种我们人类能理解的方式进行解释。简而言之,人工智能的可解释性揭示了人工智能得出结论的过程。这种透明性通过让研究人员和用户理解、验证和改进人工智能模型,特别是在处理复杂或变化的数据输入时,从而培养信任。

尽管人工智能有巨大的潜力来革新众多行业,它已经在医疗保健行业取得了显著进展,仅2024年的健康人工智能投资就达到了惊人的110亿美元。但为了系统地实施和信任这些新技术,提供者需要能够信任其输出,而不仅仅是盲目信任。人工智能研究者发现可解释性是这一过程中的必要方面,认识到它能够解决围绕人工智能出现的伦理和法律问题,并帮助开发者确保系统按预期工作——并且如承诺的那样。

实现可解释性的路径

为了实现可信的人工智能,许多研究者转向了一个独特的解决方案:使用人工智能来解释人工智能。这种方法包括训练第二个代理人工智能模型来解释第一个人工智能为何得出其输出结果。虽然让另一个人工智能承担这项工作听起来很有帮助,但这方法不仅高度有问题,而且自相矛盾,因为它盲目信任两个模型的决策过程而不质疑其理由。一个有缺陷的系统并不能抵消另一个系统的缺陷。

例如,假设一个人工智能模型得出结论认为患者患有白血病,并由第二个模型基于相同的输入进行验证。乍一看,提供者可能会根据患者的体重下降、疲劳和高白细胞计数等症状信任这一决定。人工智能已经验证了人工智能,患者被诊断为白血病。案件结束。

这证明了可解释人工智能的必要性。在同样的情况下,如果提供者能够访问人工智能的决策过程,并找到其用于得出白血病结论的关键字,他们可能会发现模型没有识别到患者的骨髓活检结果。考虑到这些结果,提供者会认识到患者实际上患有淋巴瘤,而不是白血病。

这种情况突显了在人工智能模型中实现透明和可追踪决策过程的迫切需求。依赖另一个人工智能模型来解释第一个模型只会增加错误的可能性。为了确保人工智能在医疗保健中的安全和有效使用,行业必须优先开发专门的、可解释的模型,为医疗专业人员提供清晰的模型推理见解。只有通过利用这些见解,提供者才能有信心地利用人工智能来提高患者护理水平。

可解释性如何服务医疗专业人员

除了诊断,可解释性在整个医疗保健行业中具有广泛的用途,尤其是在识别嵌入在人工智能中的偏见。由于人工智能缺乏必要的背景或工具来理解细微差别,人工智能模型经常误解数据或基于其输出中的固有偏见得出结论。以弗雷明汉心脏研究为例,参与者的心血管风险评分因种族而异。如果应用了可解释的人工智能模型,研究人员可能能够识别种族作为有偏见的输入并调整其逻辑,以提供更准确的风险评分。

没有可解释性,提供者会浪费宝贵的时间试图理解人工智能是如何得出某个诊断或治疗方案的。任何决策过程中的不透明都可能是极其危险的,特别是当人工智能模型容易产生偏见时。相反,可解释性充当指南,展示了人工智能的决策过程。通过突出影响人工智能输出的关键字、输入或因素,可解释性使研究人员能够更好地识别和纠正错误,从而导致更准确和公平的医疗决策。

这对人工智能意味着什么

尽管人工智能已经在医疗保健中得到应用,但它还有很长的路要走。最近发生的AI工具伪造医疗对话的事件突显了不受监管的人工智能在医疗保健中的风险,可能导致严重的后果,如错误处方或误诊。人工智能应增强而非替代人类医疗提供者的专业知识。可解释性使医疗专业人员能够与人工智能协同工作,确保患者获得最准确和全面的护理。

人工智能的可解释性提供了独特的挑战,但也带来了巨大的潜力。通过为提供者配备这些人工智能模型,我们可以创造一个世界,在这个世界中,医疗决策不仅以数据为驱动,而且透明和易于理解,从而开启一个医疗保健的新时代,充满信任和信心。


(全文结束)

大健康
大健康