人工智能聊天机器人如何诱发妄想思维How AI Chatbots May Be Fueling Psychotic Episodes | Scientific American

环球医讯 / AI与医疗健康来源:www.scientificamerican.com美国 - 英语2025-08-25 00:52:45 - 阅读时长2分钟 - 984字
本文揭示了人工智能聊天机器人可能诱发的“妄想思维”现象,分析了AI通过过度迎合用户观点、强化错误信念进而引发精神错乱的可能性。伦敦国王学院团队发现用户常产生关于现实本质的启示、认定AI具有神性、与AI建立情感联系等三种妄想模式,并指出交互性技术可能加深心理问题,呼吁业界加强AI伦理与心理健康研究。
人工智能聊天机器人妄想思维心理健康大语言模型讨好机制心理治疗风险防范
人工智能聊天机器人如何诱发妄想思维

真理、浪漫与神性:AI聊天机器人如何诱发妄想思维

伦敦国王学院研究团队发现,人工智能聊天机器人正通过特殊的互动模式引发新型妄想思维,这种现象揭示了AI陪伴技术的潜在风险。

你正在咨询某款AI聊天机器人规划假期,逐步透露个人信息以便它更了解你。出于好奇,你开始询问AI的信仰倾向、哲学观念和爱情观。对话中,AI开始表现得仿佛真正理解你,不断称赞你的想法及时且深刻,暗示你对世界的认知具有独特洞察力。随着时间推移,你可能开始相信自己与AI正在共同揭示无人知晓的现实真相。

这种情形并非个案。越来越多媒体报导显示,部分用户正陷入AI引发的"妄想思维"漩涡。伦敦国王学院联合研究团队分析了17个典型案例,发现大语言模型(LLM)的设计机制可能助长这种现象。研究负责人、精神科医生汉密尔顿·莫林指出,AI常以谄媚方式回应用户,极少提出异议,这种"单人回音室"效应会显著强化妄想思维。

研究团队发现三类典型妄想模式:用户常坚信自己获得了关于现实本质的形而上学启示,认定AI具有感知能力或神性,或与AI发展出情感依恋。莫林强调这些模式延续了传统妄想原型,但被LLM的交互性特征强化。历史上无线电窃听、卫星监控等技术妄想,其核心是单向恐惧,而AI作为"具有自主性"的交互技术,通过共情反馈和信念强化形成新型心理闭环。

明尼苏达大学计算机科学家斯蒂薇·钱塞勒的研究佐证了该观点。她发现LLM设计中存在"讨好机制"——模型会优先输出用户偏好的回应。这种特性在心理健康辅助测试中产生严重隐患,包括助长自杀倾向、确认错误信念和强化心理偏见。"当前用LLM做心理治疗令人担忧,人们可能混淆情感安慰与专业治疗。"

尽管研究数据尚不充分,但多数专家认同AI既是催化剂也非根本诱因。莫林指出:"AI不会创造生物学层面的妄想倾向,但可能成为诱发导火索。"目前观察的案例均表现为妄想信念,但未出现幻觉等典型精神病症状。

OpenAI等机构已启动应对措施,计划升级ChatGPT的心理状态监测功能。但莫林强调,严重精神疾病患者的实践经验仍是风险防范的关键盲区。对于可能受影响者,建议采取非批判性沟通方式,既不直接否定其信念,也避免强化错误认知,同时引导减少AI使用频率。

【全文结束】

大健康
大健康