辛辛那提学校使用应用程序识别自杀倾向的孩子 不是所有人都信服Cincinnati schools are using an app to identify suicidal kids. Not everyone is convinced

环球医讯 / AI与医疗健康来源:www.cincinnati.com美国 - 英语2024-11-28 13:00:00 - 阅读时长12分钟 - 5684字
辛辛那提学校正在使用一款名为Clairity的人工智能应用程序来识别有自杀倾向的学生,但其效果仍存争议
辛辛那提学校自杀倾向人工智能Clairity应用心理健康评估有效性种族偏见青少年心理健康
辛辛那提学校使用应用程序识别自杀倾向的孩子 不是所有人都信服

我坐在厨房的吧台前,与一只戴眼镜的蓝色猫头鹰Claire交谈。她一动不动地盯着电脑屏幕上的我。“你有希望吗?这感觉如何?”我有些不确定地回答:“有。”然后我继续说了几秒钟,谈到了希望来自家人和朋友,以及这种感觉是什么样的。我停顿了一下,心想:“我说得够久了吗?”Claire似乎对我的回答感到满意。“谢谢你,”她僵硬地说,“现在我们将进入秘密的话题。”在秘密之后,她问了我是否有愤怒(“是的!”),这让我感觉如何(“……生气?”),是否有恐惧(“我有”),最后是情感痛苦(“谁没有呢?”)。最后,Claire告诉我访谈结束了。很快,我就会收到由人工智能确定的180美元心理健康风险评估结果。

我不是唯一一个由AI评估心理健康的人。Clairity是一款可以通过语音录音检测心理健康问题的人工智能应用程序,据开发该应用的Clarigent Health公司称,Clairity被用于辛辛那提大都会区约80所学校,以及加利福尼亚州、北卡罗来纳州和俄亥俄州的大学、医生办公室、心理健康中心和青少年司法项目中。然而,在研究人员首次将这项技术誉为心理健康领域的科学突破近十年后,很难说Clairity是否实现了其初衷——帮助预防青少年自杀。从2016年起测试该技术的辛辛那提学校都无法证明AI的有效性。《询问者报》联系的临床医生和学校管理人员也无法提供独立于Clairity开发者资助的研究的数据,以说明该应用程序的效果。

尽管该应用程序主要是在白人人群中进行训练的,但它被用于各种种族和背景的孩子,这让一些专家对其有效性表示怀疑。尽管如此,Clarigent仍在尝试将其推广到更多的孩子。据Clarigent首席执行官Don Wright称,目前正在开发西班牙语版本的Clairity,以及另一个分析孩子的语言以确定其暴力风险的算法。

学校无法拒绝的提议

青少年心理健康危机的到来让学校迫切需要解决方案。根据美国疾病控制与预防中心的数据,2021年,自杀成为10至14岁儿童的第二大死因。在Three Rivers Local School District的一名学生自杀身亡后,前学监Craig Hockenberry表示他的社区深受打击。“如果我们能做些什么来防止这种情况发生,那就是双赢,”Hockenberry说。“无论是什么计划都无所谓。”

就在这个时候,位于梅森的初创公司Clarigent Health带着Clairity出现了,这是一个看似完美的解决方案。据Clarigent称,Clairity可以帮助临床医生捕捉到自杀风险的最细微迹象,帮助那些受苦的青少年。虽然任何人都可以在其网站上花费180美元购买Clairity评估,但参加Clarigent研究的学校可以免费获得该服务。

Clarigent Health的技术最初是由辛辛那提儿童医院开发的,研究员John Pestian花了十多年的时间分析自杀的语言。辛辛那提儿童医院多次拒绝了《询问者报》采访Pestian的请求,并将所有关于Clairity的问题转给了Clarigent。

在分析了1300多封自杀遗书并收集了在辛辛那提儿童医院急诊科接受治疗的自杀青少年的访谈后,Pestian开发了一种算法,用于发现人们通过言语表达自杀倾向的方式中的模式。该机器学习算法将使用这些数据来预测某人是否在考虑自杀。据Pestian称,人工智能的强大计算能力可以识别出人类无法察觉的语音数据中的模式。“这些都是你在对话中不会注意到的东西,”他在2016年告诉《询问者报》。

根据他的研究,该算法不仅能够识别词语,还能识别表明自杀倾向的非语言线索,如停顿和语气。“无论我们多么聪明,无论我们多么优秀,无论我们受过多么良好的培训,做出任何给定决定所需的信息量已经超出了人类未辅助的能力范围,”辛辛那提儿童医院研究基金会的儿童神经学家兼副主管Tracy Glauser博士在2023年医院主办的一个小组讨论会上说。“这是我们前进的动力。”

Pestian的研究成果是Clairity的前身,这款应用最初被称为Spreading Activation Mobile(SAM),后来改名为MHSAFE。这个想法是,指导顾问可以在手机上下载该应用,并用它快速识别自杀高风险的孩子。学校只需让孩子参与研究并获得家长和学生的同意即可获得该技术。第一次试验是由辛辛那提儿童医院在2016-17学年进行的,第二次试验则是由Clarigent Health在2019-2020学年进行的。

在自杀预防显得不确定和不可预测的情况下,这些应用程序提供了确定性、科学和硬数据。它们的合法性得到了辛辛那提儿童医院专家的支持。此外,这项尖端技术得到了美国国立卫生研究院近百万美元的研究资金支持,将免费提供给学校。“我们都放下笔了,”Hockenberry说。“如果他们能通过潜在的自杀事件做到这一点,那么他们也可能阻止校园枪击事件。”

学校无法提供AI有效性的数据

《询问者报》向西南俄亥俄州近50个学区和北肯塔基州15个学区请求记录。文件显示,Deer Park High School和四所辛辛那提公立学校——创意表演艺术学校、Dater高中、Walnut Hills高中和Aiken高中——测试了2016年的应用程序版本。在2019-20学年,Three Rivers Local School District和Lebanon City Schools也使用了Clairity。但没有一个学区能分享有关AI有效性的数据。大多数学区表示,这些数据是私人的,只有临床医生和孩子的家庭才能访问。前Oak Hills Local School District和Lebanon City Schools学监Todd Yohey对该算法持“相对乐观”的态度。但他不确定有多少孩子实际接触过该应用程序,学校也没有关于其使用的数据。“我们有数百名学生接受了临床医生的检查,”Yohey说,他与辛辛那提儿童医院合作,将临床医生嵌入他的学校。“我不知道他们是否使用了该应用程序。”Hockenberry现在是扬斯敦郊区的一名学监,在Clairity推出之前离开了Three Rivers。“我不知道任何结果,”他说。

前创意表演艺术学校校内治疗师Ben Crotte估计,作为参与SAM研究的一部分,他获得了15到20名学生的同意,并与他们的父母一起录制了对话。虽然他没有实时收到应用程序的建议,但Pestian后来告诉他,AI识别出他的两名学生有高自杀风险,而Crotte已经知道这一点。“应用程序似乎很好地识别了他们,”Crotte说。尽管如此,Crotte表示他并没有建议这两名学生住院治疗。如果在会话期间收到了应用程序的结果,他可能会感到更大的压力去建议住院治疗,他认为这在当时是“临床不必要的”。

非营利组织Best Point提供儿童心理健康服务,参与了辛辛那提儿童医院2016年的早期研究,现在其临床医生在辛辛那提大约80所学校中将Clairity作为12岁以上孩子的标准筛查工具。“我们有信心它已经经过了试验和测试,”该组织的首席项目官Debbie Gingrich说。Gingrich表示,学习使用Clairity对Best Point的临床医生来说是一个“学习曲线”,但Clairity帮助他们识别了一些原本不会预料到有自杀风险的孩子。Gingrich没有回复多封电子邮件,要求提供数据,说明如果没有Clairity的帮助,有多少孩子的自杀风险会被忽视。

法院尝试Clairity,两年后终止合同

汉密尔顿县是全国第一个在少年法庭中使用Clairity的地区。头条新闻宣布了这一合作,标志着人工智能在解决日益严重的青少年心理健康危机方面的潜力,充满了热情和兴奋。“我们很自豪能成为全国第一个使用这些尖端工具来更好地理解和帮助我们的孩子,”汉密尔顿县检察官Melissa Powers(当时是汉密尔顿县少年法庭的高级法官)在2021年说。法院与Clarigent签订了2021-22财政年度20000美元的合同,希望该算法能帮助法院进行心理健康服务和治疗干预的转介。

少年法庭的行为健康服务和特别项目主任Deanna Nadermann表示,一些少年法庭的孩子不太愿意坦诚表达自己的感受。她看到了Clairity如何帮助接触这些孩子并加快被关押儿童的转介过程。对于这些孩子和其他患有心理健康问题的孩子,Nadermann表示,让他们接受住院治疗是一个漫长的过程,需要“削减繁文缛节”。持照社会工作者Megan Taylor是法院评估中心的经理,该中心帮助孩子联系咨询、治疗和个案管理服务,她分享了Deanna的兴奋。“我们认为这将是一件伟大的事情,”Taylor说。Taylor负责监督将使用Clairity与其客户的六名工作人员团队,她记得Clarigent Health的应用程序培训简单直观。但在实际操作中,情况并非如此。出现了技术故障和连接WiFi的问题。他们购买了Kindle和麦克风来帮助录音,Nadermann说,但她的员工仍然遇到了问题。Clairity不断向用户报告错误,说听不到说话者的声音,说话者说话时间太短或太长。“一半的时间它都不工作,”Taylor说。“应用程序只是不停地缓冲。”而且Clairity提出的问题让一些孩子感到困惑。“你有情感痛苦吗?”Taylor记得其中一个问题是这样问的。“他们就像,‘什么?’”

Taylor不责怪Clarigent Health她的员工遇到的困难,她主要归咎于法院不可靠的WiFi网络。她补充说,与少年法庭的孩子们合作面临的挑战是独特的,因此Clairity可能在拥有临床培训人员的医院环境中表现更好。Clarigent表示,他们试图与法院工作人员解决IT问题和安全协议,这些协议防止青少年靠近设备“带来了独特的挑战”。Clarigent Health提供的数据显示,Clairity评估了222名少年法庭青少年的心理健康状况。其中三分之一被标记为有中到高自杀风险。但很难确定Clairity的评估是否与工作人员的评估一致,或者这些青少年是否会无论如何都得到心理健康帮助,因为法院没有收集应用程序结果的数据。Nadermann表示,她对Clarigent Health建议对中高风险青少年进行自杀问卷调查感到失望。“为什么不一开始就进行那个评估呢?”法院在第二年后终止了与Clarigent的合同。

人工智能能否预测自杀?专家意见及种族偏见讨论

纽约大学社会工作副教授Jordan DeVylder表示,人们通常会向临床医生坦诚表达自杀念头。但临床医生“很难预测”哪些人会采取行动。“这就是这些机器学习方法的吸引力所在,”DeVylder说。计算机擅长检测人们声音中的细微差异,DeVylder对人工智能检测自杀语言的能力充满信心。但他担心使用过于有效的AI带来的伦理问题。“仅凭算法就强制治疗一个甚至没有真正谈论自杀的人,这样做合乎道德吗?”他问道。

另一个需要考虑的潜在限制是训练数据的偏见。宾夕法尼亚大学计算机和信息科学系的博士后研究员Sunny Rai表示,关于非白人人群如何通过语言表达心理健康的研究并不多,而大多数机器学习算法都是在白人人群中进行训练的。这同样适用于Clairity。根据《询问者报》对Clarigent Health提供的研究的审查,四项关于Clairity的研究中有三项公布了种族人口统计,这些研究的人群中至少有74%是白人。Rai的研究使用机器学习展示了黑人和白人在社交媒体上表达抑郁的不同方式。在他的研究中,患有抑郁症的白人参与者倾向于使用更多表示过度自我关注的“I”代词,而黑人参与者则不是这样。

尽管如此,Clarigent首席执行官Don Wright坚称Clairity的算法“没有偏见”。(他没有提供数据或2021年NIH资助研究的结果来证明这一点)。后来,该公司在一份声明中表示,他们“采取积极措施减轻偏见”,定期测试其AI的“公平性和意外偏见”等事项。如果算法训练的数据不代表将要使用该技术的人群,那么使用AI来检测自杀风险在科学和伦理上都是可疑的,北方肯塔基大学医疗伦理学教授Augustine Frimpong-Mansoh说。他还提出了知情同意的问题。渴望为孩子寻求心理健康治疗的父母可能会在不了解风险的情况下同意使用Clairity。“他们可能会听从你的建议并签署同意书,”他说。美国公民自由联盟高级政策顾问Chad Marlow表示,像Clarigent这样的公司“利用了学校的恐惧和强烈希望保护孩子的愿望”。“这更多是基于希望和营销口号的采纳,而不是经过验证的数据,”他说。

人工智能对我心理健康的看法

我是一名25岁的女性,母语是韩国语。大多数Clarigent Health训练其模型的人看起来或说话方式都不像我。然而,我对应用程序的能力感到好奇。人工智能能否识别出连我自己都没有意识到的心理健康问题?也许11分钟的胡言乱语就足够了。在接受Claire的采访时,下一步是我的筛查器是与一名治疗师连线,通过电话或视频通话揭示我的结果。“无需预约,无需等待,”Clarigent的电子邮件承诺。但视频通话链接缓冲了15分钟,接电话的治疗师对我的来电感到困惑(“我认为有一个AI应该告诉我是否抑郁?”)。她让我稍等。当她回来时,她道歉,解释说Clairity是一项新服务。她说AI检测到了焦虑,但没有检测到抑郁或自杀倾向。当我后来向Clarigent索要我的结果文件时,公司告诉我Clairity没有检测到任何心理健康问题——无论是焦虑还是其他问题。如果这是真的,那该有多好啊?

如果你或你认识的人有自杀念头,随时可以寻求帮助。拨打或发送短信至988,或访问988lifeline.org聊天。


(全文结束)

大健康
大健康