新研究表明了解AI有助于我们稍微增加对AI的信任New research suggests learning about AI helps us trust AI a little more.

环球医讯 / AI与医疗健康来源:www.psychologytoday.com美国 - 英语2024-11-04 22:00:00 - 阅读时长4分钟 - 1695字
新研究显示,向患者提供有关AI临床决策支持系统的信息可以略微提高他们对AI的信任度,但透明度和解释能力仍然是关键因素。
AI信任心理健康临床决策支持系统可解释性患者信任知情同意数据驱动人口群体差异
新研究表明了解AI有助于我们稍微增加对AI的信任

新的研究表明,了解有关AI的知识有助于我们稍微增加对AI的信任。发布于2024年11月4日 | 由Jessica Schrader审阅

关键点

  • 向患者提供涉及护理的AI系统的信息对于建立信任和知情同意非常重要。
  • 当人们收到有关AI临床系统的相关信息时,信任度提高了5%,不信任度减少了4%。
  • 信任AI的关键因素是“可解释性”,即AI对其建议的推理透明度。

来源:SHVETS Production/Pexels

新的研究表明,了解AI在心理健康决策中的应用对于人们能够信任AI系统至关重要,但这种信息对实际增加对AI的信任度的影响有限。基于AI的临床决策支持系统(CDSS)正在开发中,旨在帮助精神科医生和心理健康临床医生,提供新的工具以提高诊断准确性、风险分层和治疗计划。然而,在心理健康和精神病学中实施AI引发了关于患者信任和接受这项技术的关键问题。患者是否信任这些系统?如何在不削弱患者信心和信任的情况下融入AI?

AI在心理健康护理决策中的应用将影响患者信任

基于AI的临床决策支持系统使用机器学习算法分析电子健康记录、临床笔记和患者提供的数据,以提出基于证据的建议。在精神病学中,这些系统可以帮助预测住院风险、提出诊断建议和推荐治疗计划。虽然AI可以减少人为错误并提供数据驱动的建议,但患者的信任和安全仍然至关重要,尤其是在精神病学中,治疗关系是核心。

对AI的恐惧或不信任——无论是关于数据的使用方式还是AI在临床决策中的角色——都可能削弱治疗关系。应该提前告知人们是否涉及AI,并让他们控制自己的数据使用。

提供AI信息仅略微提高信任并减少不信任

该研究包括992名接受精神卫生服务的参与者,分为三组:一组收到了四张幻灯片的电子手册,解释了AI支持的决策过程;第二组收到了关于精神卫生决策的一般信息;第三组没有收到任何信息。之后,每个组完成了一项调查,评估他们对精神病服务中基于AI的临床决策支持系统的信任和不信任。问题涵盖了安全担忧、错误风险、临床医生对AI的依赖性以及参与者是否认为他们应该有选择退出的选项。

提供有关机器学习的信息的参与者报告的信任度略高于未收到信息的参与者。平均而言,当人们收到有关AI系统的信息时,信任度提高了5%,不信任度减少了4%。

总体而言,当人类临床医生对AI的建议有最终监督权时,人们更愿意接受AI。研究还强调,信任AI的关键因素是“可解释性”,即AI对其建议的推理透明度。然而,由于许多AI系统的“黑箱”性质,提供可解释性将是一个挑战。

信任在不同人口群体和条件下的差异

有趣的是,信息对信任的影响因人口群体而异。女性在接受信息后报告的对AI的信任度较高,而男性通常对AI和机器学习的基线熟悉度较高,干预后信任水平几乎没有变化。患有情绪障碍或焦虑障碍的参与者在信任方面显示出更大的增长,而患有精神病障碍的参与者则较少。后者可能对精神卫生服务的整体信任度较低。

未来方向

信任对于成功实施和整合AI在心理健康护理中至关重要。尽管AI前景广阔,但在精神病学中的整合提出了关于透明度和知情同意的独特挑战和伦理问题。该研究强调了早期向人们提供AI信息的重要性,并赋予他们在数据使用和参与方面的自主权。人们会想知道AI工具是否以及如何在其临床护理中使用,并可能希望有选择退出的选项。

随着心理健康护理变得更加数据驱动,保持信任作为治疗关系的核心至关重要,确保患者/客户-临床医生关系保持协作、知情和伦理。

对于政策制定者和医疗保健提供者,这些发现强调了投资于基于AI的临床决策支持系统的明确沟通和可解释性的重要性,这对于其在心理健康护理中的成功整合至关重要。

参考文献:

Perfalk E, Bernstorff M, Danielsen AA, Østergaard SD. 患者对精神病服务中基于机器学习的临床决策支持系统的信任:一项随机调查实验。Eur Psychiatry. 2024年10月25日;67(1):e72. doi: 10.1192/j.eurpsy.2024.1790. PMID: 39450771.


(全文结束)

大健康
大健康