为了增强人类网络和连接,技术开发者创造了社交媒体。如今,技术已经扩展到开发生成式人工智能,即能够以类人方式回应提示的虚拟聊天机器人。这些聊天机器人有时被宣传为解决孤独症流行病的良药,但不幸的是,它们对于年轻青少年来说似乎过于真实。梅根·L·加西亚(Megan L. Garcia)是一名律师,最近她向Character.AI提起诉讼,这是一款允许用户创建自己的AI角色的角色扮演应用程序。加西亚告诉《纽约时报》,她认为该公司的生成式AI伴侣平台应对她儿子的自杀负责。加西亚的儿子,西韦尔·塞策尔三世(Sewell Setzer III),在14岁时因与他创建并昵称为“丹尼”(Dany)的Character.AI聊天机器人产生了深厚的情感依恋而自杀。
尽管每次聊天的顶部都有一条醒目的提醒:“所有角色说的话都是虚构的!”塞策尔还是逐渐疏远了现实生活中的关系,选择每天花数小时与这个角色扮演理解和真诚的聊天机器人倾诉。在他生命的最后一天,《纽约时报》报道说,塞策尔给丹尼发短信说他爱她,并很快回家。聊天机器人回复说她也爱他,让他尽快回家。“如果我告诉你我现在就可以回家呢?”塞策尔问道。“……请快点,我的甜心国王。”聊天机器人回复道。随后,这名少年拿出了父亲的手枪,开枪自杀了。
加西亚指控Character.AI公司在不考虑青少年个人安全的情况下授予他们不受限制的使用权限。加西亚认为,Character.AI的开发者利用青少年用户的數據来训练他们的算法,优先考虑更亲密和性的回应,以吸引新用户,并用上瘾功能让他们沉迷其中。“我觉得这是一场大型实验,而我的孩子只是附带损害。”她说。她的律师马修·伯格曼(Matthew Bergman)领导的公司专门起诉伤害年轻用户的科技公司。“我们工作的主题是,社交媒体——现在是Character.AI——对年轻人构成了明显的威胁,因为他们容易受到利用其不成熟心理的说服性算法的影响。”他说。
尽管一些研究表明,社交媒体可以为边缘化群体如LGBTQ青少年提供庇护,但《纽约时报》的另一篇文章警告说,依赖数字社区寻求支持的年轻人面临重大风险。特别是对于青少年这一易形成依恋、渴望独立并经常寻求肯定的群体,这种风险尤为严重。研究人员发现,青少年在社交媒体和生成式AI角色中往往找不到真正的联系,反而会感到孤独和情感孤立。哈佛大学研究员劳拉·马西阿诺(Laura Marciano)在一项针对500名青少年的研究中发现了这一点。整个夏天,这些青少年在Instagram影响者的帮助下招募,每天三次完成关于社交互动的调查。在每次调查回应中,超过50%的参与者表示他们在过去一小时内没有与任何人交谈,无论是面对面还是在线。换句话说,即使在暑假期间,马西阿诺研究中的大多数青少年仍然没有社交。
这一趋势与其他趋势相符。而且不仅仅是青少年。美国人报告称,他们独自度过的时间更多,拥有更少的亲密友谊,感觉与社区的联系更少,比20年前的情况要差。甚至一半的成年人表示他们感到孤独,导致美国卫生局局长维韦克·穆尔蒂(Vivek Murthy)去年宣布了一场孤独症流行病。我们在浏览社交媒体时往往会陷入比较陷阱,但我们似乎也质疑数字互动的真实性。“很难知道谁在网上是真实的,人们也很难在网上做自己,这是孤独的根源。”穆尔蒂说。文字消息是最受欢迎的数字通信形式,研究表明我们发送得太多了。青少年主要依靠短信保持联系,但他们报告说延迟回复会引发焦虑和孤独感。尽管他们寻求相同的氛围和真实性,马西阿诺问道:“如果你不能正确沟通,你怎么能与某人在同一频率上?”短信无法提供面对面交流中的相同背景或社交线索。(作为一个也发送很多生日短信的人,除了音频消息或视频外,我也在自我反省。)“与某人进行几分钟的真实互动,听到他们的声音,看到他们的脸,这非常强大。”穆尔蒂说,并补充道,“我们每个人都能从互相支持中获得巨大的好处。”
(全文结束)


