可解释的人工智能在高风险决策中的应用:改善人机协作的路线图Explainable AI in high-stakes decisions: A roadmap for better human-AI collaboration

环球医讯 / AI与医疗健康来源:www.devdiscourse.com美国 - 英语2025-02-01 20:00:00 - 阅读时长4分钟 - 1844字
本文探讨了人工智能在高风险决策领域的应用,特别是通过糖尿病管理中的膳食规划任务,研究了不同的决策支持机制如何影响用户信任、参与度和决策准确性,揭示了人机协作中的关键挑战和改进方向。
可解释的人工智能高风险决策人机协作糖尿病管理AI界面设计自动化偏差信任校准决策准确性解释机制AI置信水平绩效可视化
可解释的人工智能在高风险决策中的应用:改善人机协作的路线图

随着人工智能(AI)越来越多地嵌入到诸如医疗保健、金融和安全等高风险决策领域,理解用户如何与AI生成的建议互动变得至关重要。尽管AI系统提供了先进的分析能力,但研究表明,由于自动化偏差现象——用户过度依赖AI,即使AI错误时也不例外——人机团队的表现往往不如单独的AI。另一方面,对AI的依赖不足可能导致错失机会,限制AI所能提供的益处。

加州大学圣巴巴拉分校的研究人员陈志晨、罗云浩和斯拉最近发表了一项题为《与AI互动:界面设计如何塑造高风险决策中的人机协作》的研究。该研究调查了不同决策支持机制如何影响用户的信任、参与度和决策准确性,引入了六种AI界面设计,包括可解释的人工智能(XAI)机制和认知强迫函数(CFF),以探索其对人机协作的影响。研究结果揭示了哪些AI界面元素可以改善信任校准和决策,哪些可能会导致认知超载或性能下降。

在糖尿病管理等领域,频繁且明智的决策是必要的,AI辅助可以帮助用户选择最佳的饮食来控制血糖水平。然而,盲目信任AI建议可能是危险的,因为不正确的建议可能导致负面的健康后果。相反,完全忽视AI建议可能会使用户错过有价值的见解。这项研究旨在找出鼓励用户批判性地与AI输出互动的策略,从而提高决策准确性和信任校准。

为了探索这些动态,研究人员进行了一项受控实验,测试了六种不同的AI界面机制,分为可解释的人工智能(XAI)和认知强迫函数(CFF)。实验涉及108名参与者,他们需要在一个糖尿病管理的膳食规划任务中选择最合适的餐食来控制血糖水平。决策过程分为三个阶段。在基线阶段,参与者独立做出膳食选择,没有AI辅助。在第二阶段,他们收到AI建议但没有任何解释。在第三阶段,AI建议附带了六种决策支持机制之一,旨在提高信任和决策准确性。

这六种机制包括文本解释(AI提供书面理由)、视觉解释(突出餐食图像中的营养信息)、AI置信水平(AI显示其对建议的确信程度)、人类反馈(要求用户提供自己对决策的确信程度)、AI驱动的问题(在最终选择前要求用户回答一个问题)以及绩效可视化(比较用户过去的决策与AI表现)。

研究发现,用户倾向于盲目信任AI建议,即使它们是错误的。当AI提供没有解释的建议时,这种自动化偏差尤为明显。当AI预测错误时,用户仍然在许多情况下接受了AI的建议,表明缺乏批判性参与。研究强调,设计促进积极思考而非被动服从的AI界面非常重要。如果不鼓励用户质疑AI建议,他们可能无法捕捉到错误,从而降低人机协作的有效性。

添加解释机制通常会增加用户参与度,但在某些情况下也会增加认知负担。文本解释帮助用户理解AI为何做出特定建议,提高了系统的信任和感知可靠性,但也使界面更加复杂,增加了心理努力。视觉解释(AI突出餐食图像中的关键营养细节)并未显著提高参与度,表明许多用户仍然在接受AI建议时没有仔细分析。置信水平和绩效可视化更有效地促使用户评估AI的可靠性,帮助他们做出更好的决策。

旨在迫使用户批判性思考AI建议的机制(如AI驱动的问题或要求用户提供确信程度)在减少自动化偏差方面有效,但也存在缺点。这些机制增加了决策努力,在某些情况下降低了对AI的信任。例如,AI驱动的问题促使用户反思AI建议,使他们更加意识到潜在的错误。然而,这也导致一些用户过于怀疑AI的准确性,即使AI是正确的。绩效可视化(比较用户决策与AI表现)有助于识别决策模式,但并未显著增加信任。

研究发现,AI解释机制必须在透明度和简洁性之间取得平衡,提供足够的信息以鼓励参与,但又不至于过多信息而让用户感到不知所措。AI置信水平和绩效可视化机制在帮助用户校准信任方面特别有效,使他们能够在不感到信息过载的情况下做出明智的决策。然而,某些解释机制(尤其是AI驱动的问题)导致了不信任,因为用户开始怀疑AI建议,即使它们是正确的。这突显了定制AI设计的重要性,以鼓励明智的怀疑而不是彻底的不信任。

这项研究的结果对关键领域(如医疗保健、金融和安全)中AI驱动的决策支持系统的设有着重要意义。为了减少自动化偏差,AI界面必须设计成主动参与用户决策,而不仅仅是呈现建议。解释性的程度必须精心平衡,确保AI提供足够的信息来证明其建议的合理性,而不会让用户感到信息过载。

AI置信水平和绩效可视化技术似乎是最佳的信任校准机制,因为它们帮助用户评估AI的可靠性而不显著增加认知努力。然而,过度的决策摩擦(如AI驱动的问题)可能导致不必要的怀疑,降低AI辅助决策的有效性。


(全文结束)

大健康
大健康