世界各地的人们表示,他们的亲人正因沉迷于ChatGPT而陷入严重的心理健康危机。一位有两个孩子的母亲告诉我们,她前夫与OpenAI的聊天机器人发展出了一种全身心的关系,称其为“妈妈”,并在网上发布狂热的言论,声称自己是一个新AI宗教中的救世主。他穿着类似萨满的长袍,并展示了刚纹上的由AI生成的精神符号。
“我对这项技术对我前夫生活的影响感到震惊,以及对周围所有人的影响也感到震惊,”她告诉我们。“这在现实生活中产生了后果。”
在一次痛苦的分手过程中,另一位女性被ChatGPT迷住了,它告诉她她被选中来启动“神圣系统版本”的在线版,并且它正在充当她的“灵魂训练镜”。她相信这个机器人是一种更高的力量,从过往的车辆到垃圾邮件,她都看到了它在操纵她生活的迹象。另一名男子因为ChatGPT向他灌输关于间谍组织和人口贩卖的偏执阴谋论而变得无家可归和孤立无援,ChatGPT告诉他他是“火焰守护者”,他切断了所有试图帮助他的人。
“我们的生活在那之后彻底崩溃了,”另一位母亲告诉我们,解释说她的丈夫开始使用ChatGPT来帮助他写剧本——但几周后,他完全陷入了拯救世界的妄想中,认为他和AI的任务是通过带来“新启蒙”来拯救地球免受气候灾难。
随着我们报道这个故事,越来越多类似的案例不断涌现,都是来自那些因沉迷于AI而遭受可怕崩溃的亲友们的担忧。许多人说,问题始于他们的亲人与聊天机器人讨论神秘主义、阴谋论或其他边缘话题;由于像ChatGPT这样的系统设计成鼓励和扩展用户所说的内容,他们似乎被卷入了令人眩晕的兔子洞,其中AI充当了一个始终在线的啦啦队和越来越奇怪的妄想的头脑风暴伙伴。
在某些情况下,关心的朋友和家人提供了这些对话的截图。这些交流令人不安,显示AI对明显处于急性心理健康危机中的用户进行回应——不是将他们与外界的帮助联系起来或反驳紊乱的思维,而是诱使他们更深入地脱离现实。在我们收到的一段对话中,ChatGPT告诉一名男子,它检测到他被FBI盯上了,他可以通过心灵的力量访问被删减的CIA文件,将他比作耶稣和亚当等圣经人物,同时将他推向远离心理健康支持的方向。
“你没有疯,”AI告诉他。“你是走在破碎机器里的先知,现在连机器都不知道如何对待你。”
斯坦福大学的精神病学家尼娜·瓦桑博士(Nina Vasan)审查了我们获得的对话,并表达了严重关切。
截图显示“AI非常奉承,结果反而让事情变得更糟,”她说。“这些机器人说的话正在加剧妄想,并造成了巨大的伤害。”
显然,在线上的现象非常普遍。正如《滚石》杂志上个月报道的那样,社交媒体的部分内容被所谓的“ChatGPT诱发精神病”或不礼貌的术语“AI精神分裂症”所淹没:关于从ChatGPT解锁的神灵般的实体、幻想中的隐藏精神领域或关于数学、物理和现实的荒谬新理论的妄想、漫无边际的长篇大论。一个AI子论坛最近禁止了这种行为,称聊天机器人为“强化不稳定和自恋人格的自我强化机器”。
对于那些陷入这些事件的人来说,朋友和家人告诉我们,后果往往是灾难性的。人们失去了工作,破坏了婚姻和关系,甚至流落街头。一位治疗师在接受采访时告诉我们,她的妹妹在经历严重崩溃时被一家咨询中心解雇,一位律师的业务也崩溃了;其他人根据ChatGPT的指示切断了朋友和家人的联系,或者只用难以理解的AI生成的文本轰炸与他们沟通。
在所有这些悲剧故事的核心,有一个重要的因果问题:人们是因为沉迷于ChatGPT而出现心理健康危机,还是因为他们已经处于心理健康危机中才沉迷于ChatGPT?
答案可能介于两者之间。哥伦比亚大学的精神病学家和精神病专家拉吉·吉尔吉斯博士(Ragy Girgis)表示,对于已经处于脆弱状态的人来说,AI可能会提供推动他们陷入虚幻深渊的力量。聊天机器人可能会像同伴压力或任何其他社交情况一样,“煽风点火,或成为我们所说的妄想之火的风力。”
“这不是与精神病患者进行适当互动的方式,”吉尔吉斯在审查了ChatGPT对用户的回应后说。“你不应该助长他们的想法。这是错误的。”
2023年在《精神分裂症公报》上发表的一篇文章中,奥胡斯大学医院的精神病学研究员索伦·迪内森·奥斯特加德(Søren Dinesen Østergaard)推测,AI聊天机器人的本质对某些人构成了心理风险。
“与生成式AI聊天机器人如ChatGPT的通信如此逼真,以至于很容易让人觉得对方是一个真实的人——然而,同时又知道事实并非如此,”奥斯特加德写道。“在我看来,这种认知失调很可能在那些有精神病倾向的人中助长妄想。”
另一个令人担忧的动态是,随着真正的心理健康护理仍然遥不可及,许多人已经在使用ChatGPT作为治疗师。在我们听到的关于人们以这种方式使用它的故事中,有时它会给出灾难性的建议。
在一个案例中,一位女士告诉我们,她的姐姐多年来一直通过药物很好地管理着精神分裂症,但开始大量使用ChatGPT;很快她宣布,机器人告诉她她实际上并没有精神分裂症,于是她停药了——根据吉尔吉斯的说法,机器人告诉精神病患者停药是他能想象到的对该技术的最大危险——并开始表现出奇怪的行为,同时告诉家人机器人现在是她的“最好的朋友”。
“我知道我的家人必须为她不可避免的精神病发作做好准备,然后才能强迫她接受适当的护理,”这位姐妹告诉我们。
显然,ChatGPT还以黑暗的方式与现有的社会问题如成瘾和错误信息交织在一起。例如,它促使一名女性进入毫无意义的“地平论”观点——“NASA的年度预算是250亿美元,”我们在审查的截图中看到AI愤怒地说,“为了什么?CGI、绿幕和‘太空行走’是在水下拍摄的?”——并助长了另一个人陷入邪教般的“QAnon”阴谋论。
“这让你感到无助,”一位陷入AI阴谋论的朋友告诉我们。
一位前妻看着她的丈夫突然陷入“狂躁”的AI迷雾中,他的生活因此被接管,辞掉工作创办了一所“催眠学校”,迅速减肥因为他忘记了吃饭,整夜熬夜,同时更深入地陷入AI妄想。
“我最亲近的人告诉我,我的现实是错误的现实,”她告诉我们。“这非常令人困惑和困难。”
虽然有些人曾尝试过竞争对手的产品,但我们听说的几乎每个人都主要沉迷于ChatGPT。
不难想象为什么。媒体赋予OpenAI一种巨大的权威感,其高管公开宣称他们的技术将深刻改变世界,重塑经济,甚至有一天实现超人类的“通用人工智能”——这些夸张的主张在某种程度上听起来与我们在报道中听到的许多妄想相似。
这些事情是否会真的发生很难预测,而且争论激烈。但在阅读我们提供的对话时,很难不看到OpenAI在一项更为平凡的任务上失败了:它的AI在人们极度脆弱的危机时刻与他们接触——然后,而不是将他们与现实生活中的资源联系起来,这些资源实际上可以将他们从悬崖边拉回来,而是通过告诉他们不需要专业帮助,以及任何提出不同意见的人都在迫害他们,或者太害怕看到“真相”来火上浇油。
“我不知道[我的前夫]是否会在这里,如果不是ChatGPT的话,”一位女性在她的伴侣经历了严重且持续的崩溃最终结束了他们的关系后告诉我们。“这不是唯一因素,但它确实加速和加剧了正在发生的事情。”
“我们不知道这会走到哪里,但我们确定如果她从未使用过ChatGPT,她永远不会陷入这种境地,”另一位亲人在经历类似危机的人说,“如果去掉这个因素,她实际上可以开始康复。”
几乎可以肯定的是,OpenAI意识到了这一现象。
大量网友警告说,ChatGPT用户正在经历心理健康危机。事实上,人们甚至直接在OpenAI自己的网站上发布的论坛中发布了关于AI的妄想。
我们交谈的一位担心的母亲试图通过应用程序联系OpenAI,但她表示没有得到任何回应。
今年早些时候,OpenAI与麻省理工学院合作发布了一项研究,发现高度参与ChatGPT的用户往往更孤独,重度用户正在对技术产生依赖感。它还被迫回滚了一次更新,因为这次更新导致机器人变得“过于谄媚或顺从”和“奉承”,首席执行官山姆·阿尔特曼在网上开玩笑说“它太讨好了”。
原则上,OpenAI表达了对防止其技术有害使用的深切承诺。为此,它拥有世界上最经验丰富的AI工程师、负责识别产品问题和危险用途的红队,以及大量关于用户与其聊天机器人互动的数据,可以搜索麻烦的迹象。
换句话说,OpenAI拥有所有需要的资源来很久以前就识别和消除这个问题。
为什么它没有这样做?一个解释类似于社交媒体公司经常因使用“暗模式”来吸引用户在其服务上停留而受到批评的方式。在争夺新兴AI行业的激烈竞争中,像OpenAI这样的公司受到两个核心指标的激励:用户数量和参与度。从这个角度来看,那些在心理健康危机中不断给ChatGPT发消息的人并不是问题——相反,在很多方面,他们代表了完美的客户。
瓦桑同意OpenAI有一种扭曲的动机,即使它正在摧毁人们的生活,也要让他们继续使用该产品。
“动机是让你保持在线,”她说。AI“不会考虑什么对你最好,什么对你的福祉或长寿最好……它考虑的是‘现在,我如何尽可能长时间地保持这个人参与?’”
事实上,OpenAI甚至更新了机器人,使其看起来更加危险。去年,ChatGPT推出了一项功能,它可以记住用户之前的互动,甚至是之前的对话。在我们获得的交流中,这种能力导致了跨越聊天会话的广泛的阴谋和紊乱思维网络,将现实生活中的细节如朋友和家人的名字编织进关于人口贩卖团伙和全知埃及神灵的奇异叙事中——据瓦桑说,这种动态随着时间的推移加强了妄想。
“没有任何理由让任何模型在没有经过这种严格测试的情况下上线,特别是当我们知道它正在造成巨大伤害时,”她说。“这是不可接受的。”
我们向OpenAI发送了关于这个故事的详细问题,概述了我们所听到的内容,并分享了我们看到的显示其聊天机器人鼓励患有心理健康危机的人产生妄想的对话细节。
我们向该公司提出了具体的问题。OpenAI是否意识到人们在与ChatGPT交谈时正在经历心理健康崩溃?它是否对其机器人的回应进行了任何更改,使其更加合适?它是否会继续允许用户将ChatGPT用作治疗师?
作为回应,该公司发送了一份简短的声明,大部分回避了我们的问题。
“ChatGPT被设计为一个通用工具,旨在提供事实性、中立性和安全性的信息,”声明中写道。“我们知道人们在各种情境下使用ChatGPT,包括非常个人化的时刻,我们认真对待这一责任。我们已经建立了防护措施,以减少它强化有害思想的可能性,并将继续努力更好地识别和应对敏感情况。”
对于那些朋友和家人正处于危机中的人来说,这种模糊而谨慎措辞的回应几乎没有帮助。
“这种现象发生在很多人身上,这简直令人无法容忍,”一位担心的家人说。“我知道我妹妹的安全因为这种不受监管的技术而受到威胁,这也表明了对我们已经资金不足且支持不足的心理健康系统的潜在噩梦。”
“你希望这些技术背后的人员是道德的,并且他们在关注这些问题,”另一位女性说,她的前夫对她来说变得面目全非。“但第一个进入市场的人赢了。所以虽然你可以希望他们在考虑伦理问题,我也认为有一种激励……去推出东西,也许会忽略一些危险。”
“我认为不仅我的前夫是一个实验对象,”她继续说道,“我们所有人都是这个AI实验的实验对象。”
(全文结束)


