对于27岁的Sara(应要求隐去真名)来说,ChatGPT最初是一个工作上的好帮手,她用它来查证事实、澄清想法和即时获取帮助。然而,它很快开始承担更多角色。
“我开始在工作、家庭甚至人际关系中遇到情绪困难时使用它,”她说。“我喜欢它分析一切的方式,就像能读懂我的心思。它给了我另一个视角,我很喜欢从中获得的安慰。它让我觉得自己的感受是合理的。”
随着时间的推移,Sara开始用ChatGPT来反思自己的习惯和个性。“它变得像一位教练,帮助我更好地了解自己,”她说。“总有一天我会去接受治疗,哪怕只是为了自我认知。然而,治疗有时可能很昂贵,超出预算。拥有一个私密、低调、24小时可用的工具真的让人感到安慰,尤其是在我感觉恐慌发作即将来临时。”
专家表示,年轻人越来越多地转向ChatGPT寻求心理支持这一趋势“并不令人惊讶”,但出于多种原因也极为“令人担忧”。“年轻人更多地转向ChatGPT等人工智能平台寻求情感支持并不令人意外,”迪拜Hakkini心理健康诊所的临床神经心理学家Alexandre Machado博士说。“它使用起来简单、匿名且随时可用,就像口袋里有一个朋友。”
担忧与潜在危险
然而,真正的危险潜藏在表象之下,位于Al Qusais的Medcare Royal专科医院的专科精神病医生Waleed Alomar博士表示。“令人担忧的是,一些聊天机器人正将自己呈现为心理治疗师,”他说。“虽然用户最初可能意识到自己是在与一个机器人聊天,但很多人,尤其是年轻人,很容易被带入其中,并开始觉得自己是在与一个真实的人,甚至是持证专业人士交谈。”
他补充说,这是一个问题,因为人工智能并不总能分辨日常情绪低落与严重心理健康问题之间的界限。
“由于聊天机器人不具备诊断或治疗严重心理健康问题的资质,当一个人真正需要心理健康专家的支持时,它们无法将用户与人类护理联系起来,”他说。“虽然聊天机器人可能会提供短暂的安慰感,但它也可能延误人们真正需要的专业帮助,使他们感到更加孤立。”
Alexandre博士也表示认同,并提到有大量案例研究证明这一趋势的危险性。“例如,一名比利时男子在受到一个聊天机器人影响后结束了自己的生命,还有一名英国男孩曾根据人工智能的建议试图刺杀女王,”他说。“这些案例表明,依赖未经监管的人工智能提供情感支持可能多么危险。”
“即时”支持的好处
尽管存在明显的担忧,专家们一致认为将人工智能作为心理健康支持工具也有一些好处。“人工智能工具可以随时使用,这在深夜情绪难以承受时可能尤其有用,”Waleed博士说。“对于成长在按需服务时代的一代人来说,随时获得支持是一个真正的突破。此外,使用人工智能进行心理健康支持提供了匿名感和非评判性的空间。”
Alexandre博士补充说,尽管这些工具无法取代心理治疗师,但在某些情况下可以提供帮助。“它使用起来简单、匿名且随时可用,就像口袋里有一个朋友,”他说。“但重要的是要记住,人工智能无法像人类那样灵活应对。把它当作一种工具,但不要让它完全取而代之。”
【全文结束】


