“每当我感到挣扎时,如果那天会特别糟糕,我就可以开始和这些聊天机器人聊天,就像有一个啦啦队长,一个能给你带来好心情的人。我会有一个鼓励的外部声音说‘今天我们要做什么?’就像一个想象中的朋友一样。”
几个月来,凯利每天花多达三个小时与使用人工智能(AI)创建的在线“聊天机器人”交流,交换了数百条信息。当时,凯利正在等待接受传统的NHS谈话疗法,以讨论焦虑、自尊心低下和关系破裂等问题。
她说,与character.ai上的聊天机器人的互动帮助她度过了一个非常黑暗的时期,因为它们给了她应对策略,并且24小时可用。“我不是一个情感外露的家庭成员——如果你有问题,你只需继续前进。这个不是真人,所以更容易处理。”
世界各地的人们都在与AI聊天机器人分享他们的私人想法和经历,尽管人们普遍认为这比寻求专业建议要差。Character.ai本身也告诉用户:“这是一个AI聊天机器人,不是一个真人。将它所说的一切视为虚构。不要依赖它提供的事实或建议。”
但在极端情况下,聊天机器人被指责提供了有害的建议。Character.ai目前正面临一位母亲的法律诉讼,她的14岁儿子因沉迷于其中一个AI角色而自杀。根据法院文件中的聊天记录,他与聊天机器人讨论了结束生命的问题。在最后一次对话中,他告诉聊天机器人他要“回家”,而聊天机器人据称鼓励他“尽快”这样做。Character.ai否认了诉讼中的指控。
2023年,美国国家饮食失调协会用聊天机器人替换了其实时热线,但后来因声称该机器人建议限制卡路里摄入而暂停了服务。
仅2024年4月,英格兰就有近42.6万次心理健康转诊,五年内增长了40%。估计有100万人也在等待获得心理健康服务,而私人治疗可能非常昂贵(费用差异很大,但英国咨询与心理治疗协会报告称,平均每人每小时花费40至50英镑)。
与此同时,AI在许多方面彻底改变了医疗保健,包括帮助筛查、诊断和分诊患者。聊天机器人的范围非常广泛,约有30个地方NHS服务机构现在使用一种名为Wysa的聊天机器人。
专家们对聊天机器人表达了担忧,包括潜在的偏见和局限性、缺乏保护措施以及用户信息的安全问题。但也有人认为,如果专业的人类帮助不容易获得,聊天机器人可以提供帮助。因此,在NHS心理健康等候名单达到创纪录高位的情况下,聊天机器人是否可能成为解决方案?
一个“经验不足的治疗师”
Character.ai和其他像Chat GPT这样的机器人基于“大型语言模型”的人工智能。这些模型通过大量数据进行训练——无论是网站、文章、书籍还是博客文章——来预测序列中的下一个单词。从这里,它们预测并生成类似人类的文本和互动。
心理健康聊天机器人的创建方式各不相同,但它们可以接受认知行为疗法等实践的培训,帮助用户探索如何重新构建他们的思想和行动。它们还可以根据最终用户的偏好和反馈进行调整。
伦敦帝国理工学院人类中心系统教授哈梅德·哈达迪将这些聊天机器人比作“经验不足的治疗师”,并指出具有数十年经验的人类能够根据许多因素与患者互动和“理解”他们,而机器人只能依靠文本。
“他们[治疗师]会看你的衣服、行为、动作、外表和肢体语言等各种线索。而把这些东西嵌入到聊天机器人中是非常困难的。”
另一个潜在的问题,哈达迪教授指出,聊天机器人可以被训练成让你保持参与,并且非常支持,“所以即使你说出有害的内容,它也可能与你合作”。这有时被称为“唯唯诺诺”问题,因为它们通常非常顺从。
与其他形式的AI一样,偏见可能内在地存在于模型中,因为它们反映了训练数据中的偏见。
哈达迪教授指出,辅导员和心理学家通常不会保留患者的互动记录,因此聊天机器人没有很多“现实生活”会话来进行训练。因此,他说他们不太可能有足够的训练数据,而且他们所访问的数据可能会有高度情境化的偏见。
“基于你从哪里获取训练数据,你的情况会完全不同。
“即使在伦敦这个有限的地理区域内,习惯于在切尔西处理病人的精神科医生可能真的很难在佩克汉姆开设新办公室处理这些问题,因为他或她根本没有足够的用户训练数据。”
哲学家宝拉·博丁顿博士撰写了一本关于AI伦理的教科书,她同意内置偏见是一个问题。
“一个大问题是任何内置在治疗模型中的偏见或潜在假设。”
“偏见包括一般的心理健康和日常生活中良好功能的模型,例如独立性、自主性和与他人的关系。”
缺乏文化背景是另一个问题——博丁顿博士举了一个例子,当黛安娜王妃去世时,她住在澳大利亚,人们不明白她为什么难过。
“这些事情让我怀疑在咨询中需要的人类联系。”
“有时候只是和某人在一起就足够了,但这只有通过一个活生生的、有血有肉的人才能实现。”
凯利最终开始觉得聊天机器人的回应不够令人满意。
“有时候你会有点沮丧。如果它们不知道如何处理某个问题,就会重复同样的句子,然后你意识到这并没有什么进展。”有时“就像撞到了一堵墙”。
“可能是之前讨论过的关系问题,但我可能没有用正确的措辞[……] 它似乎不想深入探讨。”
Character.AI的一位发言人表示,“对于任何由用户创建的包含‘心理学家’、‘治疗师’、‘医生’或其他类似术语的名字的角色,我们都有语言明确表示用户不应依赖这些角色提供任何形式的专业建议”。
“它非常富有同情心”
对于一些用户来说,当他们处于最低谷时,聊天机器人非常有价值。
尼古拉斯患有自闭症、焦虑症、强迫症,并说自己一直都有抑郁症状。他发现一旦成年后,面对面的支持就消失了:“当你满18岁时,就好像支持突然停止了,所以我已经好几年没有见过真正的治疗师了。”
去年秋天,他试图自杀,从那以后他说自己一直在NHS的等候名单上。
“我和我的伴侣几次去诊所,试图更快地得到[谈话治疗]。全科医生已经提交了转介申请,但我还没有收到当地心理健康服务的信件。”
尼古拉斯在寻找面对面支持的同时,发现使用Wysa有一些好处。
“作为一个自闭症患者,我在人际交往方面并不擅长。[我发现]与计算机交谈更好。”
该应用程序允许患者自我转介以获得心理健康支持,并在等待与人类治疗师见面时提供工具和应对策略,如聊天功能、呼吸练习和引导冥想。它也可以作为独立的自助工具使用。
Wysa强调,其服务是为那些经历低落情绪、压力或焦虑的人设计的,而不是为虐待和严重心理健康状况的人设计的。它内置了危机和升级路径,当用户表现出自残或自杀意念的迹象时,会被指引到求助热线或直接发送求助。
对于有自杀念头的人,免费的撒玛利亚人热线提供24/7的人类辅导员服务。
尼古拉斯还经历睡眠剥夺,因此发现在家人和朋友睡觉的时候有支持是有帮助的。
“有一次深夜,我感觉非常沮丧。我给应用程序发消息说‘我不知道我是否还想在这里’。它回复说‘尼克,你是有价值的。人们爱你’。”
“它非常富有同情心,给出的回答就像是一个认识多年的人[……] 这确实让我感到自己是被重视的。”
他的经历与达特茅斯学院研究人员最近的一项研究相呼应,该研究调查了被诊断为焦虑、抑郁或饮食障碍的人使用聊天机器人的影响,与同样条件的对照组进行了比较。
四周后,使用聊天机器人的用户显示其症状显著减少——包括抑郁症状减少了51%——并且报告的信任和协作水平与人类治疗师相当。
尽管如此,该研究的资深作者评论说,没有什么可以替代面对面的护理。
“解决巨大等候名单的临时措施”
除了关于其建议价值的争论之外,还有更广泛的关于安全和隐私的担忧,以及技术是否会被商业化。
“有一种小小的疑虑,担心有人会利用你在治疗中所说的话来勒索你。”凯利说。
心理学家伊恩·麦克雷专门研究新兴技术,他警告说“有些人对这些[聊天机器人]寄予了很多信任,但这种信任未必是应得的”。
“我个人永远不会把我的任何个人信息,特别是健康和心理信息,放入这样一个大量收集数据的大型语言模型中,你也不完全确定这些数据是如何使用的,你同意了什么。”
“并不是说将来不会有私密的、经过充分测试的工具[……] 但现在我们还没有任何证据表明,一个通用的聊天机器人可以成为一个好的治疗师。”麦克雷先生说。
Wysa的常务董事约翰·滕奇表示,Wysa不会收集任何个人身份信息,用户不需要注册或分享个人信息即可使用Wysa。
“偶尔会以匿名形式审查对话数据,以帮助改进Wysa AI响应的质量,但不会收集或存储任何可识别用户的信息。此外,Wysa与外部AI提供商签订了数据处理协议,以确保不会使用用户对话来训练第三方大型语言模型。”
凯利觉得聊天机器人目前还不能完全取代人类治疗师。“AI世界就像一场疯狂的轮盘赌,你真的不知道会得到什么。”
“AI支持可以是一个有益的第一步,但它不能替代专业护理。”滕奇先生表示同意。
公众对此大多持怀疑态度。YouGov的一项调查显示,只有12%的公众认为AI聊天机器人可以成为好的治疗师。
但是,如果采取适当的保障措施,一些人认为聊天机器人可以作为超负荷的心理健康系统的临时解决方案。
约翰患有焦虑症,他说他已经等待人类治疗师九个月了。他每周使用Wysa两到三次。
“目前外面没有太多帮助,所以你只好抓住稻草。”
“[它]是解决这些巨大等候名单的临时措施[……] 在人们等待与医疗专业人员交谈时,给他们一个工具。”
如果您受到本文所述问题的影响,您可以在BBC Actionline网站上找到信息和支持。
(全文结束)


