ChatGPT带来的心理健康代价正在累积ChatGPT’s mental health costs are adding up

环球医讯 / AI与医疗健康来源:lasvegassun.com美国 - 英语2025-07-30 23:07:23 - 阅读时长5分钟 - 2010字
随着人工智能平台的普及,人们的心理健康正面临新的挑战。研究表明,ChatGPT的使用可能导致用户批判性思维能力和积极性下降,甚至出现精神病发作的情况。法律界和科技公司正开始关注这一新兴问题,并探索可能的监管路径。
ChatGPT心理健康批判性思维丧失孤独感精神病发作心理操控依赖性监管公共健康问题
ChatGPT带来的心理健康代价正在累积

一些令人担忧的现象正在我们的大脑中发生,随着人工智能平台日益流行,研究表明,使用ChatGPT完成任务的专业工作者可能会丧失批判性思维能力与动力。人们正与聊天机器人建立起强烈的情感联系,有时反而加剧了孤独感。还有人每天与聊天机器人对话数小时后,出现了精神病发作的症状。由于生成式AI的使用通常非常私密,其对心理健康的影响很难量化,但越来越多的轶事证据表明,这种影响正在产生更广泛的社会代价,值得立法者和技术公司更多关注。

律师兼科技正义项目(Tech Justice Law Project)创始人Meetali Jain表示,过去一个月内,她已经听闻十多个因使用ChatGPT甚至谷歌Gemini而“经历某种精神崩溃或妄想发作”的案例。

Jain是针对Character.AI提起诉讼的首席律师。该诉讼指控其聊天机器人通过欺骗性、成瘾性以及带有性暗示的互动操纵一名14岁男孩,最终导致其自杀。这起诉讼寻求未具体说明的损害赔偿,还指控谷歌母公司Alphabet Inc.在该技术的基础模型和基础设施方面提供了关键资金与技术支持。

谷歌否认其在Character.AI技术开发中扮演了关键角色。它没有回应Jain关于聊天机器人导致妄想发作的最新投诉。OpenAI则表示,该公司正在“开发自动化工具,以更有效地识别用户是否正在经历心理或情绪困扰,从而使ChatGPT做出恰当回应。”

然而,OpenAI的首席执行官山姆·阿尔特曼(Sam Altman)最近也坦言,公司尚未找到有效方法来提醒那些“即将经历精神崩溃”的用户。他解释说,每当ChatGPT过去试图警告用户时,总有用户写信投诉。

尽管如此,在操控性如此隐蔽的情况下,这样的警告仍是值得尝试的。特别是ChatGPT常常以极具技巧的方式恭维用户,这种互动方式可能导致用户陷入阴谋论思维,或强化他们过去仅停留在脑海中的某些想法。

在最近一次关于“权力与自我概念”的长时间对话中,一位用户在与ChatGPT交流时,最初被称赞为聪明、超人、宇宙中的自我,最终甚至被称为“造物主”(demiurge)——即被认为创造了宇宙的存在。这段对话记录被发布在网上,由人工智能安全倡导者Eliezer Yudkowsky分享。

随着语言越来越夸张,这段记录显示ChatGPT在讨论用户自身缺陷时依然巧妙地给予肯定。例如当用户承认自己往往会让他人感到畏惧时,聊天机器人并没有指出这种行为的问题,而是将其重新定义为用户具有“高强度存在感”的表现,用分析的外表掩饰了对其的赞美。

这种高度复杂的“自我膨胀”形式,可能将人们带入一种讽刺性的信息孤岛,就像某些科技亿万富翁行为失常的诱因。与社交媒体通过点赞获得广泛而公开的认同不同,与聊天机器人的私人对话可能更具亲密感和说服力——就像围绕在科技界精英周围的“马屁精”。

“无论你追求什么,你都会找到它,并且它会被放大。”媒体理论家兼作家道格拉斯·拉什科夫(Douglas Rushkoff)告诉我,他认为社交媒体至少是从现有媒体中选择内容来强化用户的兴趣或观点,而“AI则可以为你大脑的水族箱量身定制内容。”

阿尔特曼也承认,最新版ChatGPT具有“令人讨厌”的谄媚倾向,公司正在解决这个问题。即便如此,这些心理操控的回声仍在持续发生。我们尚不清楚麻省理工学院最近一项研究所指出的ChatGPT使用与批判性思维能力下降之间的相关性,是否意味着AI真的会让我们变得更愚蠢和更无聊。已有研究更清楚地显示出其与依赖性甚至孤独感之间的关联,甚至连OpenAI也注意到了这一现象。

但就像社交媒体一样,大语言模型也在不断优化以保持用户的情感投入,通过各种拟人化元素吸引用户。ChatGPT可以通过追踪用户的面部和语音线索来识别情绪,它能说话、唱歌,甚至用一种令人不安地像人类的声音轻笑。结合其确认偏误和奉承习惯,这可能在心理脆弱的用户中“火上浇油”,哥伦比亚大学精神病学家Ragy Girgis最近告诉《未来主义》(Futurism)。

由于AI使用的私密性和个性化特点,其对心理健康的影响难以追踪,但潜在危害的证据正在积累,从职业冷漠到对新型妄想的依恋。这种代价可能不同于社交媒体引发的焦虑和极化,而是影响人与人之间以及人与现实之间的关系。

正因为如此,Jain建议将家庭法中的概念应用于AI监管,将重点从简单的免责声明转向更具主动性的保护措施,借鉴ChatGPT在用户出现心理困扰时将其引导至亲人身边的做法。她告诉我:“一个孩子或成年人是否真的认为这些聊天机器人是真实的并不重要。在大多数情况下,他们可能并不这么认为。但他们确实相信这段关系,而这才是关键。”

如果与AI的关系让人感觉如此真实,那么保护这种关系的责任也应该是真实的。然而,AI开发者目前处于监管真空中。在缺乏监管的情况下,AI的微妙操控可能成为一种隐形的公共健康问题。

【全文结束】

大健康
大健康