仅凭常识就能判断,"人工智能" - 这个多年来涵盖各种技术的广泛概念,目前主要由为聊天机器人和图像生成器提供动力的贪婪数据神经网络主导 - 对人类大脑具有改变生活的影响。
自第一个商业可用的大语言模型发布还不到三年,AI用户已经出现了偏执的现实崩溃、宗教狂热,甚至自杀的案例。最近一项针对超过1,000名青少年的调查显示,31%的人认为与ChatGPT交谈与与真实朋友交谈相比同样令人满意或更令人满意。
虽然需要更多关于人工智能引发的心理健康问题的研究,但一个由12名国际研究人员组成的团队进行的最新精神病学调查发出了严峻警告,指出人工智能诱发的精神病可能会变得多么严重。
首先,研究人员在AI精神病案例中确定了几个正在出现的"主题":认为自己发现了世界隐藏真相的"救世主使命",相信聊天机器人是具有意识的神明的"神一般的AI",以及将语言模型模仿人类对话能力误解为真实爱情的"浪漫型"或"依恋型妄想"。
研究指出,在这三种情况下,这种尚未经过同行评审的研究指出,发展轨迹具有相似性:用户与大语言模型的关系"从良性实用使用逐渐发展为病态和/或沉迷的执着"。作者表示,这种陷入妄想的"滑坡"是需要研究的关键点,因为一个原本健康的人陷入AI引发的狂热的风险并不总是显而易见。
他们写道:"通常,人工智能的使用始于帮助完成日常琐事,这建立了信任和熟悉感。随着时间推移,个人会探索更多个人、情感或哲学性的问题。在这个阶段,AI旨在最大化参与度和验证性的设计很可能会抓住用户,产生'滑坡效应',进而推动更大的参与度。"
对于有发展或已经患有精神病风险的用户来说,这种效应只会被放大。由于大语言模型本质上并不是真正意义上的"人工智能",而是统计语言算法,AI机器人无法"区分表达妄想信念的提示与角色扮演、艺术、宗教或推测性表达"。
论文指出,AI精神病并非与聊天机器人互动的必然结果 - 开发者实际上对语言模型的输出有一定控制权,因此也负有相应责任。然而,他们确实指出,"鉴于目前的变化速度和轨迹",我们倾向于将这些AI聊天机器人拟人化的倾向"很可能是不可避免的"。
研究人员推测,从这一点来看,我们"最紧迫的责任"应该是开发能够保护各种可能的用户的安全措施 - 即使面对持续存在的幻觉和模拟 - 保护他们对AI的错误理解。
然而要做到这一点,最终意味着要将系统设计转向实用用途,而不是参与度 - 这是大型科技公司从未真正感兴趣的方向。
【全文结束】


