随着心理治疗的等待名单延长至数月且治疗成本令许多人望而却步,越来越多的人开始使用人工智能(AI)平台寻求情感支持。在社交媒体上,用户们公开分享通过ChatGPT等聊天机器人应对心理健康挑战的经历。
"我们都在用ChatGPT当治疗师了?我以为只有我这样,"一位TikTok用户表示。另一位用户评论称:"我的心理医生提到有研究将真实医生/治疗师与AI对比,结果发现AI获得更优评价,因为它真正倾听患者及其感受。"
然而也有用户对AI替代人类治疗师持谨慎态度:"和AI对话令人难过,它们总是附和你,这种互动既奇怪又生硬。我需要坦诚的反馈,而非观点粉饰。"
机器人能通过互联网文本训练真正取代人类心理治疗体验吗?加拿大平台First Session创始人兼CEO罗布·品特瓦拉(Rob Pintwala)认为AI无法替代人类治疗。他的妻子曾因本地治疗师的糟糕体验而受挫,促使他创建了更精准的治疗师匹配平台。"她鼓起勇气却遭遇失败对话,这让她多年不愿再尝试,这经历促使我创立First Session。"
自2019年推出的First Session专注于"治疗联盟"——即治疗师与来访者之间的信任关系,这种关系常是治疗成功的关键。目前该平台已服务超1万名用户,用户可通过浏览治疗师视频和简介找到合适的匹配。
AI在心理健康领域的定位
品特瓦拉认为AI系统确有价值:"其程序设计能提供温和、富有同理心的回应。"但风险同样存在:用户可能过度依赖AI进行自我诊断,或因与机器互动加剧社会孤立。"人类需要真实的情感连接,AI提供的'足够好'的陪伴可能掩盖更深层的心理需求。"
关于AI治疗平台的伦理问题,他指出过度压榨治疗师的工作环境可能导致服务质量下降:"当治疗师因疲惫无法提供专业陪伴时,会加剧行业信任危机。"
AI视角的警示
多伦多都会大学(TMU)AI专家奥兹居尔·图雷肯(Ozgur Turetken)教授将生成式AI比作"聪明的婴儿"。他强调AI虽能通过模式识别模拟共情,但本质上无法理解人类痛苦:"AI的同理心表现完全取决于训练数据。若输入数据包含歧视内容,AI也可能给出危险建议。"
图雷肯特别警示高风险场景:"对于自杀倾向或严重抑郁患者,AI可能引发严重后果。即便AI能模仿人类情感,其本质仍是数据驱动的模式生成。"
数字起点而非终极方案
两位专家认为AI工具(如ChatGPT)可作为心理支持的入门选择。AI能提供情绪安抚、普及心理健康常识,但最终需引导用户寻求专业帮助。"我们看到AI趋势,但必须坚持人类连接的核心价值,"品特瓦拉总结道。
【全文结束】


