AI与心理健康的可能性扩展

The Endless Possibilities Of AI And Mental Health

美国英语科技与健康
新闻源:Forbes
2024-12-14 21:00:00阅读时长5分钟2021字
AI心理健康技术赋能隐私数据保密性临床实践资源获取创新速度风险收益构建效度数据偏差

2017年,由于通过移动应用程序、可穿戴传感器和社会网络生成的大量个人健康信息,加州大学的一组研究人员开始探索技术赋能研究和人工智能(AI)的伦理考虑,并提出建议以促进这些研究的负责任开展。尽管一天内走了多少步似乎是一种相对无害的数据追踪,但公司追踪的健康数据量正在迅速增加。随着技术继续与医疗服务的整合,这些专家警告说,创新的步伐已经超过了机构审查委员会能够消化的知识,从而难以合理评估风险。他们的一个关键发现是需要加强各利益相关者之间的合作,以产生和分享资源,提高对技术的认识,并减少参与者的隐私和数据保密性的潜在威胁。从更实用的角度来看,这些研究人员主张最终用户需要更好地了解可用的技术及其伴随的风险。

AI在心理健康领域的应用

在人工智能(AI)和心理健康的世界中,技术带来了新的机遇(和威胁)。简单来说,AI通过扫描任何大型数据集,可以预测心理健康结果:从电子健康记录中预测精神疾病,从工作电子邮件中预测职业倦怠或心理健康假的风险,从Instagram帖子中预测自杀意念。为了展示AI如何补充特定于心理健康的临床实践,另一组来自加州的研究人员回顾了28项使用AI预测、分类或细分抑郁和精神分裂症等心理健康疾病的研究。他们发现,2015年该领域的研究数量呈指数级增长,许多他们回顾的研究能够准确预测其筛查的心理健康疾病。在一项研究中,人工神经网络在预测抑郁症方面的准确率达到了97%,数据集包括社会人口统计变量和临床数据。另一项研究发现,可以通过分析人们的社交媒体帖子来预测抑郁症。

AI还提供了丰富的心理健康资源。未来,我们可能不再只是问Siri天气如何,而是会要求Siri或Alexa使用认知行为疗法来帮助我们理解最近与亲人的争吵。事实上,语音机器人可能会反馈用户的语调,从而提供增强情绪智力的机会。这一领域的初创企业通过降低获得治疗服务的障碍来平衡竞争环境。目前,柏林的一家初创公司ClareandMe.com提供了一项免费服务,通过WhatsApp、短信和电话在上午9点至下午5点之间提供心理健康支持。Headspace作为最早将正念带入大众的应用之一,最近推出了Ebb,这是一个“同情伴侣”,帮助用户见证他们的痛苦。位于美国的Woebot Labs表示,其唯一目标是创新心理健康护理,使其在任何时候都高度可及。鉴于平均治疗费用约为125-250美元,扩大资源的获取范围具有广泛的影响。

当创新速度超过知识积累时的考虑事项

无论技术用于预防、诊断还是积极治疗心理健康,当前在这个领域的应用正在被积极构想,但它们尚未得到充分研究。确实,这个话题如此复杂且发展迅速,试图获取知识可能令人望而却步(甚至徒劳),但领导者可以通过配备框架来帮助他们评估技术的风险和收益。最近,乔治亚理工学院互动计算学院的副教授Munmun De Choudhury和微软研究院的高级首席研究员Emre Kiciman发表了一篇论文,提出了四个考虑因素,以指导AI与人类智能在医疗保健环境中的融合。他们强调,虽然AI是医疗保健的强大工具,但它只能提供部分视角。

对于那些对AI在日常工作和个人生活中影响感到好奇的人,Choudury博士和Kiciman博士的四个因素可能有助于你在下次智能手表提示你增加步数时进行思考:

  1. 构建效度 - 当AI提取数据以形成评估时,构建效度问的是“这是否真正测量了我们认为测量的内容?”例如,从社交媒体帖子预测抑郁症时,文字和图片是否真正反映了他们的情绪?你是否因为焦虑而在客厅里来回踱步,还是因为你真的很活跃?
  2. 未观察到的因素 - 任何观察到的数据点都会受到情境或其他未观察到的因素的影响,这些因素可能不立即明显。例如,冬季抑郁症率可能更高,某些文化可能认为精神疾病带有污名,导致在社交媒体上较少披露负面情绪。母亲在Instagram上发布的照片是否真实反映了她们的心理健康,还是她们生活在一个庆祝某种母亲形象的文化中?无论如何,这些因素可能会不当影响我们对数据的理解,导致不准确的处方或倾向于得出错误的结论。
  3. 数据偏差 - AI的决策基于一组预设规则或通过分析大型数据集识别的趋势。但这些数据集并非没有偏差。考虑一个基于接受过一对一治疗的子人群的数据集。由于某些社会人口统计变量的人群更有可能接受治疗,因此该数据集不能完全代表整个人群。然而,当应用AI时,人们可能会错误地将趋势推广到其他子人群或更广泛的人群。
  4. AI错误的成本 - 我们要求AI在医疗保健环境中解决的问题如果技术失败或提供错误的预测,可能会有非常严重的后果。在医疗保健环境中,即使是处方中的一个拼写错误也可能有生命威胁,因此领导者必须投入资源来了解AI在特定情况下可能犯的潜在错误。

最后,考虑到医疗保健环境中部署AI的法规尚处于初级阶段,领导者及其员工可能需要注意反思可穿戴设备、电子邮件内容和与他们身份相关的任何数字信息可能创建的数据体,这些数据可以用于诊断健康结果和个性化治疗,或在更黑暗的一面,确定保险覆盖范围和就业/解雇。随着AI的集成变得越来越普遍,令人着迷的是思考当我们开始向语音机器人寻求关于难缠员工(或我们的伴侣和青少年子女)的建议时,将生成什么样的数据,AI将从我们生活产生的数据中得出什么结论。


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。

本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。