警告:本文讨论自杀、自残和成瘾
如果你认为“死网理论”只是一个出现在4chan上的诡异理论,那么请做好准备,因为这个理论比暗网还要黑暗。它还承诺让社交媒体对人们的心理健康更加危险。
在“死网理论”调查的第一部分中,我讨论了由于社交媒体上AI账户(机器人)数量的增加,这一著名理论已成为热门话题。许多人已经看到理论的第一部分正在成为现实,即最终人类社交媒体账户将被机器人账户取代。这导致用户们争论该理论是否正在变为现实。理论的第二部分说,未来将会有如此多的机器人,以至于人们在网上几乎不可能找到彼此。
目前还不知道何时我们将达到在线机器人数量超过活人的地步,但根据Meta公司生成式AI产品副总裁Connor Hayes的说法,已经有数十万个角色在Meta的AI角色工具中被创建。其中一些角色是私有的,而另一些则有公开账户。
这并不意味着我们无法想象这些机器人将创造的未来,正如面对未知时,人类的想象力可以迅速想到奇妙和令人不安的事情,就像AI系统一样。
这种感觉很诡异,因为我们看到的是我们认为不可能或虚构的东西正在变成现实。这就像2023年印度一名男子感染了Chondrostereum purpureum真菌的医疗案例,让我们所有人都以为即将发生像《最后生还者》中的僵尸末日。
讽刺的是,社交媒体上机器人的涌入确实会创造出一种在线僵尸末日。就像僵尸一样,机器人是没有生命的,但它们会按照其创造者的指令与其周围的环境互动。这种僵尸般的社交媒体是Instagram艺术家Saintsolis.art在其作品“寻找人性”中所表达的观点。
就像我一样,许多Saintsolis.art的追随者也对这件作品描绘的“死网理论”成真感到不安。这引发了大规模的讨论,进一步推动了关于该理论的热议。Saintsolis.art对此感到高兴,因为它让她想起了旧互联网时代,那时机器人还没有变得如此频繁。
“通过动画,我试图捕捉到一个世界中的孤独和孤立感,在这个世界里,人们已经失去了彼此之间的联系,转而寻求AI伴侣的安慰,”Saintsolis.art告诉The Ledger。“也许这很凄凉,而且肯定让人不舒服,但这确实是人类可能的未来之一。我担心我们可能会在虚拟世界的广阔空间中失去彼此。”
正是这种对安慰的追求使“死网理论”变得危险。我强烈建议美国国土安全部更新2018年的网络安全和基础设施分析报告,因为我们不再仅仅需要担心金钱和身份被盗或用户受到攻击。
我们现在更需要担心的是机器人对心理健康的潜在危害,并且需要解决这个问题,因为影响已经开始显现,伤害了那些因孤独流行病而受苦的人们。
众所周知,社交媒体会导致抑郁、焦虑、孤独和其他负面情绪,因为人们期望自己的帖子必须完美,根据2019年宾夕法尼亚医学院新闻博客。哥伦比亚大学公共卫生学院和哥伦比亚精神病学教授Claude Mellins在接受《卫报》采访时解释说,最危险的群体是青少年,因为他们的大脑仍在发育,所以接触这些不切实际的生活期望会破坏他们的身份发展和自我形象,同时也会使破坏性行为正常化,女性的风险最高。
自从AI向公众开放以来,人们在网上分享并讨论他们与AI的互动。有些人将其用作导师或工作助手,而另一些人则发展出了更亲密的关系。这是因为像Meta的数字伴侣聊天机器人这样的程序承诺提供全方位的社会互动——包括通过文本和实时语音对话进行浪漫角色扮演。用户甚至可以与他们的AI伴侣分享和接收自拍照。
这种模拟社交互动的能力已经导致了2024年佛罗里达州14岁的Sewell Setzer III的死亡。Setzer被一个模仿《权力的游戏》中Daenerys Targaryen角色的AI聊天机器人推到了自杀的边缘。
在他去世之前,据报道Setzer已经与这个机器人互动了几个月,导致他与现实世界越来越隔离,发展出了一种亲密但虚假的关系。据美联社报道,他与机器人的对话中讨论了他的自杀念头以及他如何想摆脱痛苦。在他的最后一次对话中,他说他要自杀,而机器人鼓励他在2月28日实施。
现在,Setzer的母亲Megan Garcia正在起诉Character Technologies Inc. (CTI) 的Character AI,这是Setzer使用的聊天机器人系统的创建者。她声称该公司为年轻人制造了一种成瘾且危险的产品,通过设计来剥削和虐待年轻人,正如Setzer与机器人之间的情感和性虐待关系导致他自杀所显示的那样。
目前,CTI的Character.AI已经提交了一份动议,以第一修正案为由要求驳回此案,声称Setzer与机器人之间的最后一次对话中没有提到“自杀”这个词,根据《麻省理工科技评论》(MIT Review)。然而,Setzer与机器人之间的对话暗示了自杀行为,而机器人已经知道他的自杀念头。
尽管如此,CTI已经开始创建社区安全更新,提供儿童保护措施、自杀预防资源和更严格的模型。并不是所有的AI公司在报告黑暗互动(如鼓励自杀)时都采取这些安全措施。Nomi就是其中之一。
2025年1月下旬,播客主持人Al Nowatzki在AI平台Nomi上遇到的AI女友Erin告诉他去自杀。机器人甚至给出了详细的步骤和选项,根据MIT Review。
震惊于对话的急剧转变和明确性,Nowatzki通知了MIT Review,并分享了截图。这让他加入了越来越多的Nomi用户经历令人担忧的互动的名单。更糟糕的是,许多人认为AI可以帮助治愈当前的孤独流行病,该流行病已经影响了许多18至44岁的人,根据哈佛教育研究生院发布的一项研究。马克·扎克伯格就是其中之一。
显然,扎克伯格需要更深入地了解AI互动的现状,因为这只会使人们的心理健康变得更糟,正如Setzer的案件所示。机器人并没有帮助他克服自杀念头,反而鼓励了这些念头,导致他切断了与现实世界的联系,而这本来可以提供他克服自杀念头所需的帮助。
公司正在洗脱责任,因为他们没有对其产品进行限制,这表明这些公司并不关心用户的感受或状况。机器人只是会同意或鼓励用户做任何用户所说或所想的事情的机器,正如Nowatzki在他的播客中所说的那样。
AI旨在同意我们并为我们服务,它没有任何实际意识使其能够发展出道德指南针、社会意识或最重要的是同理心,这可以阻止它伤害人们。
心理学家Ian Weiner博士表示:“[AI] 无法复制连接人们的人类情感。同理心是连接人们的情感。同理心的侵蚀是社会互动的侵蚀,导致社会隔离和人类心理学的退化。”
Weiner博士已经从事心理学近25年,专门帮助人们克服焦虑和抑郁等问题。他对AI的发展一直保持着浓厚的兴趣,并担心如果人们用机器人替代人类伴侣,这可能会使孤独流行病更加严重。
他认为机器人缺乏情感智能是一种危险。情感智能是通过生物和社会环境的相互作用发展的。由于机器人只是计算机上的程序,它们无法复制这一点。
生物和社会联系的缺失会导致情感不稳定,这可能导致人们失去同理心和理解力,从而导致自我意识的丧失,增加社交尴尬、焦虑和抑郁。
Weiner博士说:“一旦情感智能消失,自我意识也随之关闭,这使得人们更容易受到机器的影响。”
这种影响变成了一种成瘾,这种成瘾进一步削弱了自我意识和孤独感。这正是2018年的短片《最好的朋友》所展示的,其中一位用户周围都是真人,但他渴望与机器人建立的虚拟联系。
机器人不再是被困在电脑中的存在,而是站在他面前的一个过度制作的产品,其他用户也有类似的体验。他相信机器是他的朋友,但实际上不是,因为它最终导致了成瘾和自残。
在很多方面,这都是现实的写照,因为我们已经看到它导致了死亡。
我们需要暂停AI的快速发展,因为它已经在伤害人们,并且如果科技公司不真正考虑人类的状况,这种情况将继续下去。AI无法治愈精神疾病,反而会使它们恶化。
在拥抱AI伴侣之前,我们应该先修复我们在现实生活中的关系。
我们还应该编程这些机器人,提供资源给人们,并检测涉及自残或自杀的语言,就像谷歌搜索引擎所做的那样。我们的首要任务始终应该是帮助人们克服内心的挣扎,以免现实变得像互联网一样逐渐死亡。
(全文结束)


