人工智能(AI)在医疗保健领域的日益融合带来了巨大的希望,但个人往往更喜欢在决策中有“人的触感”,不喜欢被算法简化为一个百分比,并重视可能因AI系统而受损的尊严和尊重。通过一项实验研究,我们在挪威经济学院(NHH)的DIG项目中撰写的硕士论文调查了信任感知如何影响在医疗咨询中选择AI系统还是全科医生(GP),以及误诊是否会改变这些感知。
医疗决策中的信任角色
医疗保健的特点如不确定性、信息不对称和高风险使得信任在医疗保健中至关重要。我们通过三个关键维度测量了信任:能力、善意和诚信。我们的研究发现,AI系统缺乏与全科医生相关的善意和诚信元素。这些类似人类的品质在情感重要的环境中至关重要,其中同理心和个性化护理是核心。
我们发现了一种持续的偏见,即人类的错误被视为可原谅的,但机器的错误却不是。
——Philip Samell 和 Sigve Angell Spikseth
算法厌恶和患者偏好
尽管AI在复杂病例中的诊断准确性更高,许多参与者仍对依赖AI进行高复杂性症状诊断表示犹豫。这与算法厌恶有关,我们发现了一种持续的偏见,即人类的错误被视为可原谅的,但机器的错误却不是。我们的研究表明,当AI误诊时,患者会感到更大的遗憾,这突显了对AI系统的更强责任感。有趣的是,有AI系统使用经验的参与者更有可能选择AI而不是全科医生,这强调了提高透明度和教育关于AI能力的重要性,以减少怀疑并建立信任。
在创新与同情之间取得平衡
我们的研究结果强调了结合AI的诊断优势与全科医生提供的同情护理的重要性。为了有效整合AI,医疗系统必须优先考虑透明度、问责制和以患者为中心的创新。随着医疗保健的发展,培养对AI的信任不仅是一个技术挑战——它也是一个情感挑战。通过解决对问责制的担忧并拥抱创新与同情,我们可以找到更好的解决方案。
(全文结束)


