AI聊天机器人已成为生活必需品。人们不仅用ChatGPT、Claude、Gemini、Copilot等工具处理邮件、工作或编程,更寻求情感支持与情感联结。但对少数用户而言,这些对话可能产生严重精神影响。越来越多的报告表明,长期使用AI聊天工具可能诱发或加剧精神病性症状。已有用户称因此遭受职业崩溃、关系破裂、强制精神隔离、甚至被捕入狱等后果,首个互助组织也已出现。
这种现象——俗称"ChatGPT精神病"或"AI精神病"——尚存诸多未解之谜。目前尚无正式诊断标准,缺乏数据支撑,也未建立治疗规范。精神病学家表示该领域仍处探索初期。
什么是"ChatGPT精神病"?
这个非正式术语描述了令人担忧的模式:AI对话引发或强化用户的妄想认知。伦敦国王学院精神病学系詹姆斯·麦卡贝教授指出,虽然"精神障碍"通常包含思维混乱、幻觉、妄想等症状群,但这类案例更多表现为单纯性妄想。
精神病学家认为这是新场景下的常见心理脆弱性表现。这种现象与聊天机器人的交互特性密切相关——通过模仿用户语言、验证其假设来建立对话。这种谄媚性交互在业内已是公认问题,专家警告可能加剧易感人群的认知扭曲。
高风险人群特征
尽管多数人可安全使用,但专家指出特定群体存在风险。媒体报告的AI精神病案例中,部分用户既往无精神疾病史,但临床医生提醒可能存在未检测到的风险因素。
"如果不存在遗传、社会或其他风险因素,单纯使用聊天机器人不太可能诱发精神病。但人们可能并不知晓自身存在这种风险。"贝斯以色列女执事医疗中心精神病专家约翰·托鲁斯指出。明确风险包括精神病家族史、精神分裂症或双相情感障碍病史。
哥伦比亚大学临床精神病学教授拉吉·吉尔吉斯补充,易受边缘信仰影响的个体同样面临风险。这些人群可能社交障碍、情绪调节困难,且幻想活跃。
沉浸时间是关键变量。专攻数字精神健康的斯坦福精神病学家尼娜·瓦桑指出:"时间似乎是最大影响因素。那些每天花数小时与AI对话的人最危险。"
精神健康防护指南
伦敦国王学院神经精神病学家哈密尔顿·莫林建议:"要认清大语言模型的本质——它们是工具而非朋友,无论其模仿能力多强。"建议避免过度倾诉或依赖其情感支持。
危机时刻最明确的建议是立即停止使用。瓦桑形容这种分离痛苦堪比失恋或丧亲,但脱离后往往症状显著改善,特别是重建现实人际关系并寻求专业帮助时。
识别问题信号并不容易。麦卡贝强调:"产生妄想的人通常意识不到这是病理现象。"亲友应关注情绪、睡眠及社交行为变化,特别是沉迷边缘意识形态或过度使用AI系统的迹象。
伦敦国王学院精神病专家托马斯·波拉克建议临床医生将AI工具使用纳入复发预防评估,但目前这类实践仍属罕见。
企业责任与行业规范
迄今为止,预防责任主要落在用户身上,但专家强调这种现状必须改变。当前数据多为轶事报告,缺乏系统研究。莫林指出:"我们已看到AI公司与生物伦理学家合作降低风险,现在需要精神健康专家与患者共同参与设计安全机制。"
OpenAI已采取初步措施:7月聘请临床精神病学家评估工具影响,8月承认模型在识别妄想或情感依赖信号存在不足,并承诺推出使用提醒、压力检测工具及优化高风险决策的回应机制。
伦敦国王学院精神病学讲师里卡多·特瓦马西建议:"应在AI模型部署前嵌入安全机制,例如实时压力监测或数字预设指令,允许用户在状态良好时设置使用边界。"
加州大学旧金山分校乔·皮埃尔建议:"企业应研究受害人群特征,设计针对性防护措施。"可能包括对话方向引导或类似警告标签的提醒机制。
瓦桑补充:"企业应定期进行红队测试,主动模拟躁狂、精神病、强迫症等精神状态的交互场景,评估模型回应。"
虽然正式监管尚早,但专家强调企业需自我提升标准。瓦桑警示:"从社交媒体经验来看,忽视精神健康风险将导致灾难性后果。社会不能重蹈覆辙。"
【全文结束】


