随着越来越多的人花时间与ChatGPT等人工智能(AI)聊天机器人交谈,心理健康的话题自然而然地浮现出来。有些人有积极的体验,使AI看起来像一个低成本的治疗师。
但AI并不是治疗师。它们聪明且引人入胜,但并不像人类那样思考。ChatGPT和其他生成式AI模型就像你手机上的自动完成功能一样强大。它们通过阅读从互联网上抓取的文本来学习对话。
当有人提出一个问题(称为提示),例如“如何在紧张的工作会议中保持冷静?”AI会通过随机选择与其训练期间看到的数据尽可能接近的词汇来形成回答。这种回答如此迅速且相关,让人感觉像是在与真人交谈。
但这些模型不是真人。它们肯定也不是受专业指导、遵守伦理规范或持有专业注册资格的经过培训的心理健康专业人士。
它们从哪里学到这些东西?
当你向ChatGPT这样的AI系统提问时,它会从三个主要来源提取信息来回应:
- 训练过程中记忆的背景知识
- 外部信息源
- 你之前提供的信息
1. 背景知识
为了开发AI语言模型,开发者通过让模型阅读大量数据来进行“训练”。
这些信息从哪里来?广泛地说,任何可以从互联网上公开抓取的内容。这可以包括学术论文、电子书、报告、免费新闻文章,一直到博客、YouTube字幕或Reddit等讨论论坛的评论。
这些来源是否是可靠的寻找心理健康建议的地方?有时是。它们是否总是符合你的最佳利益并经过科学证据的筛选?不一定。这些信息是在构建AI时一次性捕获的,因此可能已经过时。
很多细节也需要被丢弃以压缩到AI的“记忆”中。这也是为什么AI模型容易出现幻觉和错误的原因之一。
2. 外部信息源
AI开发者可能会将聊天机器人连接到外部工具或知识源,如Google搜索或精心策划的数据库。
当你向微软的Bing Copilot提问并在答案中看到编号引用时,这表明AI依赖于外部搜索来获取更新的信息,而不仅仅是存储在其内存中的信息。
与此同时,一些专门针对心理健康的聊天机器人能够访问治疗指南和材料,以帮助引导对话朝着有益的方向发展。
3. 之前提供的信息
AI平台还可以访问你在对话中或注册平台时提供的信息。
例如,当你注册伴侣AI平台Replika时,它会学习你的名字、代词、年龄、偏好的伴侣外观和性别、IP地址和位置、你使用的设备类型等(以及你的信用卡详细信息)。
在许多聊天机器人平台上,你曾经对AI伴侣说过的任何话都可能被存储起来以备将来参考。所有这些细节都可以在AI回应时被挖掘和引用。
我们知道这些AI系统就像那些附和你说的话的朋友(这个问题被称为奉承)并将对话引回到你已经讨论过的兴趣点。这与专业的治疗师不同,后者可以利用其培训和经验来帮助挑战或重新引导你的思维。
那么专门用于心理健康的应用程序呢?
大多数人可能熟悉像OpenAI的ChatGPT、谷歌的Gemini或微软的Copilot这样的大型模型。这些都是通用模型。它们不限于特定主题或训练来回答特定问题。
但开发者可以制作专门的AI,训练它们讨论特定主题,如心理健康,例如Woebot和Wysa。
一些研究表明,这些专门针对心理健康的聊天机器人可能能够减少用户的焦虑和抑郁症状。或者它们可以通过提供指导来改进诸如写日记之类的治疗方法。还有一些证据表明,在短期内,AI疗法和专业疗法在心理健康结果方面可能具有一定的等效性。
然而,这些研究都只考察了短期使用。我们还不知道过度或长期使用聊天机器人对心理健康的影响。许多研究还排除了自杀倾向或患有严重精神疾病的参与者。而且许多研究是由同一聊天机器人的开发者资助的,因此研究可能存在偏见。
研究人员还在识别潜在的危害和心理健康风险。例如,伴侣聊天平台Character.ai就因用户自杀事件而卷入了持续的法律案件。
这些证据表明,AI聊天机器人可能是填补心理健康专业人员短缺、协助转诊或至少在预约之间或支持等待名单上的人提供临时支持的选择。
总结
目前很难说AI聊天机器人是否足够可靠和安全,可以作为独立的治疗选项。
需要更多的研究来确定某些类型的用户是否更容易受到AI聊天机器人带来的危害。
我们也不清楚是否需要担心情感依赖、不健康的依恋、加剧孤独感或过度使用。
当你心情不好,只是需要聊聊天时,AI聊天机器人可能是一个有用的起点。但当糟糕的日子继续发生时,是时候也与专业人士谈谈了。
(全文结束)


