人工智能在心理健康领域的应用:患者的看法如何?Artificial Intelligence in Mental Health: What Do Patients Think?

环球医讯 / AI与医疗健康来源:telehealth.org美国 - 英语2025-02-10 21:00:00 - 阅读时长5分钟 - 2063字
本文探讨了患者对人工智能在心理健康护理中应用的看法,指出虽然一些患者对AI持开放态度,但多数人对其安全性和透明度表示担忧,特别是女性、老年人及有心理健康史的患者更倾向于对AI的应用持保留态度。
人工智能心理健康领域患者看法AI应用信任监管人口统计差异透明度临床决策远程医疗心理健康护理
人工智能在心理健康领域的应用:患者的看法如何?

人工智能(AI)正在改变医疗服务的提供和体验方式,特别是在心理健康护理方面。无论是应对焦虑、抑郁、物质使用障碍还是其他心理健康挑战,基于AI的远程医疗解决方案提供了诸多优势:提高可及性、个性化干预和增强临床决策。那么,患者对这些创新有何看法?当AI用于心理健康护理时,他们的兴趣和担忧是什么?新的证据正在浮现。我们回顾了三篇最近发表的研究,了解患者对人工智能在医疗和心理健康护理中的看法。以下是我们的发现。

主要结论

  • 大多数患者对AI在心理健康护理中的应用感到不适。
  • 女性和老年患者往往对AI持更负面的态度。
  • 信任和监管是患者接受AI的关键。
  • 患有精神疾病的人优先考虑透明度和防止伤害。

患者对AI在心理健康护理中的看法:横断面调查研究

哥伦比亚大学的Nathalie Benda博士及其同事对500名美国成年人进行了调查,以确定他们对AI在心理健康护理中应用的一般看法,并分析态度是否因年龄、种族、性别、自认为的经济资源、心理健康史或健康素养而有所不同。他们收集了定量和定性数据,参与者的人口统计学特征反映了更广泛的美国人口。

关键发现

  • 大多数对AI在心理健康护理中的应用感到不适。 大多数受访者对AI诊断抑郁症或双相情感障碍、评估自杀风险或提供心理健康支持的聊天机器人界面感到不适。
  • 部分参与者对AI持开放态度。 大约20%的受访者对所有由研究人员提出的AI应用持开放态度,包括诊断和风险评估。近一半的受访者有时愿意使用聊天机器人进行心理健康支持。
  • 人口统计差异。 女性不太可能认为AI有益,而黑人参与者和自我报告健康素养较低的人认为基于AI的心理健康干预更有益。
  • 局限性。 样本量较小,抽样过程未详细说明。需要更多研究来确认这些发现,特别是与种族和族裔相关的发现。

患者对人工智能在心理健康护理中的不同看法:横断面调查研究

在同一横断面调查的基础上,哥伦比亚大学的研究人员进一步详细分析了患者特征。他们试图确定哪些患者特征与对AI的舒适度、安全顾虑、解释性和透明度的重要性以及信任/责任的有利或不利看法相关。Megan Reading Turchioe博士及其同事主要研究了心理健康史或当前心理健康状况差异是否与对AI在心理健康护理中的不同态度有关。此外,他们还研究了年龄、性别、种族、族裔、健康素养和计算能力(理解和使用数学的能力)等其他特征。他们使用年龄数据来研究代际差异对AI在心理健康护理中的态度影响。

关键发现

  • 有心理健康史的患者对AI的看法较不乐观。 研究人员发现,有心理健康史的患者对AI诊断感到不舒适,更担心误诊,并认为透明度和预防伤害更为重要。
  • 与较少感知到的好处和更多对危害的担忧相关的因素。
  • 心理健康史
  • 女性
  • 老一代
  • 经济资源较少
  • 受教育程度较低
  • 计算能力较低(对数学不熟悉)
  • 局限性。 再次强调,总体样本量不大,结果可能会因更大样本的重复研究而有所不同。需要更多具有代表性的大样本研究来验证这些发现。

患者对医疗保健中人工智能使用的看法:范围综述

多伦多大学的Moy及其同事对患者对AI在医疗保健中的看法进行了范围综述。该团队检索了2015年至2022年期间发表的文章。他们确定并总结了37篇相关文章,还识别了文献中的共同主题和发现。

关键发现

  • 患者希望信任和监管,而非教育。 患者对AI的态度可能比临床医生更积极。然而,他们的接受程度依赖于信任和监管。有趣的是,从临床医生的角度来看,患者教育是优先事项,但从患者角度来看并非如此。
  • AI的伦理使用。 患者重视数据和AI使用的知情同意。公平性和偏见问题对患者也很重要。
  • 影响对AI态度的因素。
  • 人口统计特征
  • 年龄
  • 性别
  • 种族
  • 健康状况
  • 教育
  • 对AI的熟悉程度
  • AI的质量/严谨性
  • 成本
  • 用户体验
  • 局限性。 此范围综述涵盖了截至2022年的文献。然而,ChatGPT于2022年11月30日首次发布。因此,该团队审查的文献并未反映患者对生成式AI和大型语言模型(如ChatGPT)的最新看法。

结论

在这几项研究中,几个主题脱颖而出。首先,尽管一些患者可以接受AI在心理健康护理中的应用,但其他人仍对负面影响持谨慎和担忧态度。患者高度重视信任和监管,希望了解如何保护自己免受风险。其次,AI在心理健康护理中的可接受性可能存在人口统计差异,有心理健康史的患者可能对其使用更不舒适。此外,老年患者和女性对AI在心理健康护理中的应用也更不舒适。最后,患者与临床医生在对AI的关注和优先事项上有所不同。

这些发现强调了在使用AI进行心理健康护理时透明度、监管和患者参与的重要性。在使用AI为患者提供护理之前,应询问患者的担忧和舒适度,以便充分解决其需求。解答关于AI系统如何处理个人数据以及这些技术如何补充——而不是取代——传统护理的问题,有助于建立信任。同样,我们必须确保AI驱动的干预措施经过严格开发和测试,并提供优质的用户体验。虽然研究仍在发展,但这些见解为临床医生提供了宝贵的指导,以改善心理健康护理的质量和可及性。


(全文结束)

大健康
大健康