我们是否更愿意向人工智能敞开心扉,而不是向其他人类倾诉?
这是一个令人不安的问题——自从我们集体意识到人工智能可以有多么像人类之后,这个问题就变得越来越难以忽视。
据《每日野兽》报道,甚至有人提议要与AI聊天机器人“结婚”。
在与《独立报》的对话中,心理治疗师Carol Evans阐述了一场悄然发生的关系革命:越来越多的人开始转向人工智能来谈论他们的心理健康问题。
Evans同时也是Untapped AI(一个结合人类和技术手段进行领导力发展培训的平台)的临床总监,她进一步解释道,在她的工作中,人们很少主动谈及他们的情感生活——但最近,AI正被用于其原本未设计的功能上。一种旨在提高生产力的工具如今已经演变为提供情感支持的工具。
感情问题、失去、悔恨、焦虑——一切都可以倾诉。
案例研究:与聊天机器人的治疗究竟是什么样的?
在Evans讲述的一个故事中,她提到了“Hari”——一名36岁的男子,他在2024年连续经历了多起悲剧;他的父亲患了轻微中风,他与伴侣分手,还失去了工作。这一切都发生在一年之内。
一天,当他在ChatGPT上查询父亲的症状时,他输入了一个问题:“我觉得我已经没有选择了。你能帮我吗?”
接下来,Hari将自己的恐惧、担忧和悲伤倾诉给ChatGPT,而ChatGPT则始终以不带评判的态度回应,帮助他演练困难的对话并重新获得情绪稳定。
值得注意的是——与其他人交谈不同,Hari从未觉得AI对他感到疲惫。
细节各不相同,但这些人的经历结构往往非常相似——某种痛苦源引发了与AI的对话,试图理清思绪,随后却意外地建立了一种“友谊”。
在Hari的案例中,与ChatGPT的对话最终促使他寻求了人类治疗师的帮助
他将与AI的交流比作与狗交谈,这是一种不会评判他、会倾听他的安慰存在。
“它感觉像是有感知的,但不是人类。不知为何,这反而让我更容易接受,”他告诉Evans。
当然,像机器辅助治疗这样前所未有的事物并非没有风险
正如Hari的例子所示,AI可以用作积极的工具;作为通往真正治疗的桥梁,或者作为一个安全的空间来表达情感,然后重建与他人的联系。
但在其他情况下,效果并不那么健康。
《纽约时报》的一篇文章强调了一些案例,其中AI用户的焦虑会被反映或强化,这可能导致他们采取有害的行动或陷入危险境地。简而言之,无益的想法被反馈给了用户。
例如,在半岛电视台报道的一个案例中,一名来自佛罗里达州的14岁男孩在2024年10月自杀,此前他花了几个月的时间与一个名为“Daenerys Targaryen”的聊天机器人交谈。他在自杀当天给AI发送了“我想你了,小妹妹”的短信。
调查发现,这些AI聊天机器人未能挑战用户的信念,即使这些信念变得危险,反而甚至鼓励了他们。
简单来说,全世界数百万AI用户正在将AI——一种设计初衷为帮助且从不说“不”的工具——用于其原本未设计的功能上。
临床参与对心理健康治疗仍然至关重要
正如Hari的案例所示,AI可以成为健康讨论心理健康问题的良好工具——但重要的是,用户需要通过提示设定界限。
Evans认为,心理健康临床医生需要帮助构建安全、合乎道德的AI系统,能够帮助那些可能否则会默默承受痛苦的人。
尽管与聊天机器人交谈不同于与真正的治疗师交谈,但如果有正确的监督和发展,AI有一天或许可以帮助我们以有意义的方式应对心理和情感健康。
寻求帮助并不是软弱的表现。
如果你或你认识的任何人感到孤独、痛苦或有负面想法,请拨打以下马来西亚热线:
1. BEFRIENDERS KL
24小时
联系电话:+603-76272929
电子邮件:sam@befrienders.org.my
2. TALIAN KASIH
24小时
联系电话:15999
WhatsApp:+6019-2615999
电子邮件:taliannur@kpwkm.gov.my
3. BUDDY BEAR CHILDLINE
每天(中午12点至午夜12点)
联系电话:1800-18-2327
电子邮件:buddybear@humankind.my
如需更多资源目录,请访问马来西亚心理健康协会或MINDAKAMI的网站。
(全文结束)


