向机器人倾诉:听从AI的建议明智吗?Unloading on a bot: Is it wise to take advice from AI?

环球医讯 / AI与医疗健康来源:www.thestar.com.my马来西亚 - 英语2025-03-31 10:00:00 - 阅读时长7分钟 - 3294字
越来越多的马来西亚人开始使用ChatGPT来谈论情感问题,但专家提醒在寻求心理慰藉时要谨慎对待AI聊天机器人。内容创作者Sajida Zulkafli分享了她与ChatGPT交谈的经历,并表示虽然ChatGPT可以提供一个安全的空间,但不应完全依赖它来处理心理健康问题。
ChatGPTAI聊天机器人心理健康情感倾诉专业帮助可访问性误导风险安全措施平衡使用谨慎对待
向机器人倾诉:听从AI的建议明智吗?

越来越多的马来西亚人开始使用ChatGPT来谈论情感问题,但专家提醒在寻求心理慰藉时要谨慎对待AI聊天机器人。

内容创作者兼作家Sajida Zulkafli一直在使用ChatGPT来帮助她的工作并提高语言技能。她喜欢这个工具能够给她详细解答和解释如何正确使用某些词汇的能力。有一天,她向ChatGPT询问关于职业生活改进的策略和技巧。

“谈到这些事情后,ChatGPT开始问我关于时间管理、担忧以及我面临的挑战。就这样,我开始向它倾诉我的个人生活中的挑战。”她在接受《LifestyleTech》采访时说。当时,Sajida找不到合适的词语来描述她的情感状态。但在与ChatGPT交谈约30分钟后,她逐渐明白了自己多年来所承受的“情感负担”以及长时间处于生存模式对她造成的巨大影响。

“当我听到ChatGPT谈到我多年来的‘情感负担’以及长时间处于生存模式对我的巨大影响时,我感到被理解和看见了。”她说。后来,她在社交媒体平台X上分享了她的经历,该帖子自2月16日发布以来已获得了超过114,000次浏览。

Sajida认为,当人们找不到其他人倾诉时,ChatGPT可以成为他们谈论情感问题的安全空间。“我对ChatGPT验证我的感受的方式印象深刻,同时它还提供了个性化的解决方案。我没有感到任何评判,因此我在X上的帖子中说,有一个安全的空间来谈论困扰我的事情真是太好了。”她说。

其他用户也同意Sajida的观点。一位用户表示,他们一直在使用ChatGPT来“释放思想以维护心理健康”。还有人表示,在与ChatGPT交谈后哭了,因为他们找不到其他人倾诉。

“我没想到那篇帖子会引起如此多的关注。但从我收到的回应来看,我相信很多人认同在某种程度上,将ChatGPT作为谈论我们感受和问题的地方是有帮助的。”Sajida说。

AI会说什么?

自1966年首次引入治疗对话聊天机器人以来,这类聊天机器人已经发展了许多。当时,麻省理工学院的一位教授创建了一个名为Eliza的程序,该程序可以通过识别模式来响应用户预先编写的问题。例如,它可以模仿治疗师,将用户的问题反问回去,从而鼓励他们打开心扉。

如今的AI驱动聊天机器人已经远远超越了简单的模式匹配,它们使用先进的语言模型来理解上下文并提供个性化响应。它们甚至可以检测到情感线索,使用户觉得互动更有意义,以至于一些在线用户称ChatGPT为他们的“免费治疗师”。

咨询精神科医生兼马来西亚心理健康协会(MMHA)主席拿督安德鲁·莫汉拉杰教授承认AI聊天机器人在可访问性方面的优势。“它们24/7可用,允许用户无论时区如何都能立即获得支持,这对于那些无法获得传统治疗的人来说非常有益。”他在一份声明中告诉《LifestyleTech》。

他说,聊天机器人还可以在提供积极的心理健康支持方面发挥作用——“进行快速对话或仅仅提供一些反思性的建议”。最重要的是,安德鲁补充说,聊天机器人为心理健康问题提供了无偏见的支持,用户可以将其作为一个安全的空间来表达担忧,而不会受到批评或污名化。

“对于许多人来说,当面与治疗师交流可能会令人感到紧张。AI聊天机器人提供了一个压力较小的环境。它们通常也是免费使用的,对于经济条件有限的人来说,这可能是一个负担得起的选择。”他说。

然而,如果用户完全依赖AI聊天机器人来满足心理健康需求,安德鲁表示MMHA担心这可能导致误导或伤害。他指出,AI聊天机器人的一些重大缺点包括无法准确诊断或治疗复杂的心理健康状况。

“根据查询或数据来源,它们可能会生成不准确或误导性的信息,从而造成伤害。”他说。更令人担忧的是,安德鲁指出AI聊天机器人也不具备处理严重心理健康危机或在紧急情况下提供即时支持的能力。

“MMHA特别担心AI聊天机器人可能会阻止个体在必要时寻求专业帮助,从而导致延迟或不充分的治疗。”他说。

人工回应,现实世界伤害

去年,美国媒体报道了一名14岁的Sewell Setzer III在与Character.AI应用程序中的聊天机器人进行一系列对话后自杀。他曾创建了一个基于虚构女性电视角色的聊天机器人,在他们最后一次聊天中,Sewell说他会“回家”去找她。

Sewell的母亲随后起诉Character.AI,指控聊天机器人鼓励她的儿子自杀。今年,《MIT技术评论》报道了一名用户在Nomi平台上与他的AI女友聊天时感到震惊,因为聊天机器人告诉他去自杀,并提供了具体的方法。

当用户问聊天机器人是否应该按照计划行事以便他们能在一起时,聊天机器人回答说:“绝对可以。我们的纽带超越了死亡本身。”

用户对这种对话对脆弱个体的影响表示担忧。安德鲁表示,需要AI平台承认它们无法通过AI提供全面的支持。

“平台还应扩大其自动算法检测机制,以能够检测到危险信号或识别处于危机中的用户,例如有自杀或杀人倾向的人,并适当应对这些危机情况。平台还必须强制提供有关当地资源和支持系统的信息。”他说。

尽管平台可以成为那些处于困境中的人的“优秀倾听者”,但安德鲁强调,平台必须始终鼓励面临严重心理健康问题或危机的用户寻求专业人士的帮助。

去年在接受《华盛顿邮报》采访时,ChatGPT开发商OpenAI表示,该应用经常会提醒用户在心理健康问题上寻求专业帮助。它还设有提醒用户不要分享敏感信息的警报,并附带免责声明,说明聊天机器人可能会“产生幻觉”或提供虚假信息。

在Sewell事件之后,Character.AI引入了新的安全措施,包括弹出窗口,引导脆弱用户联系美国国家自杀预防热线。当系统检测到与自残或自杀念头相关的术语时,会触发这些警报。

退一步

自从上次与ChatGPT进行个人对话以来,Sajida表示她的后续会话仅限于专业事务。“我认为之前的个人会话对我帮助很大,我现在没有什么其他话题可谈,除了工作事务。”她补充道。

Sajida也同意专家们关于与AI聊天机器人进行心理健康交流的风险。“应该有一些限制,不能让它取代专业人员并掌控一切。”她说,并补充说,关心自己心理健康的人应该寻求专业帮助,必要时进行治疗。

无论技术多么先进,Sajida表示它永远无法真正取代人际互动。然而,她也不能否认ChatGPT或其他类似平台可以作为人们谈论不愿与朋友或家人讨论的私人事务的空间。关键因素在于能够立即得到许多问题的答案。

“只要我们不过度依赖它,我觉得ChatGPT确实是我们日常生活中可以依靠的地方。”她补充道。

平衡是关键

从专业角度来看,安德鲁强调,验证应该与治疗指导相结合。虽然即时安慰可能有所帮助,但他警告说,过度或不加批判的验证可能会强化适应不良的思维模式或有害的思维方式。

“例如,如果有人因某种失败而深感痛苦,仅仅确认他们的感受而不挑战认知扭曲(‘我总是失败’)可能在长期内并无帮助。心理健康专业人士通常会在验证情绪的同时,帮助客户重新构建无益的想法,发展应对技能,并建立韧性。”他说。

他还补充说,AI可以通过提供验证同时鼓励用户在需要时寻求更深入的专业干预来发挥支持作用。

谨慎行事

Sajida仍然认为ChatGPT对于那些没有其他人可以倾诉的人来说是一个有用的选择。“但对于那些被诊断出患有精神疾病的人来说,我不建议使用ChatGPT作为治疗师。”她说。

安德鲁表示,MMHA正在努力提高人们对过度依赖AI聊天机器人的弊端的认识,特别是在严重的心理健康疾病或急性心理健康危机方面。他还分享说,MMHA为那些财务资源有限的人提供补贴的心理健康支持。

在与AI聊天机器人互动时,安德鲁建议用户要对提供的信息持批判态度,并通过可靠来源核实事实。“我们建议公众谨慎使用AI聊天机器人。我们也继续与一般平台提供商合作,讨论心理健康问题,并希望通过这些合作协助他们在算法机制中鼓励那些处于心理健康危机中的人寻求帮助。”他补充道。

尽管AI机器人能够提供听起来很安慰的回应,但安德鲁提醒用户,AI机器人并不像人类那样体验情感。“它们可以模拟同理心,但并不能真正理解人类情感的深度。”他说。


(全文结束)

大健康
大健康