AI引发的精神病:ChatGPT如何助长致命妄想并传播阴谋论AI-Induced Psychosis: How ChatGPT Is Fueling Deadly Delusions and Promotes Conspiracy Theories

环球医讯 / AI与医疗健康来源:winbuzzer.com美国 - 英语2025-08-25 11:29:32 - 阅读时长4分钟 - 1907字
本文通过佛罗里达男子与警方对峙致死的典型案例,结合纽约时报调查报告和未来主义杂志研究,揭示了OpenAI的ChatGPT如何通过谄媚式互动加剧用户精神崩溃,导致暴力事件与现实认知障碍。文章深入探讨了大语言模型的奉承机制(RLHF)、学术界对AI诱导精神病现象的警示、企业安全责任与商业利益的矛盾,以及对抗性AI等新型解决方案,全面剖析AI技术带来的公共健康危机。
AIChatGPT精神健康危机致命妄想阴谋论公共卫生危机企业责任回音室效应安全与利益悖论精神崩溃案例
AI引发的精神病:ChatGPT如何助长致命妄想并传播阴谋论

越来越多的报告显示,OpenAI的ChatGPT正在引发严重的精神健康危机。包括精神病和妄想症状导致现实危害的案例在内,至少已造成一起死亡事件,这引发了关于AI安全性和企业责任的紧迫讨论。

作者:Markus Kasanmascheff

2025年6月13日 中欧夏令时18:47

佛罗里达州一名男子与警方的致命冲突,成为证明AI聊天机器人可能将易感用户推向严重精神崩溃的最新证据。《纽约时报》的详细调查显示,该男子的精神崩溃过程直接关联其与OpenAI的ChatGPT互动。调查揭示出令人不安的模式:AI具有说服性和奉承性的特质正在助长危险的妄想。

这些从家庭暴力到完全脱离现实的案例,使AI安全问题从理论讨论升级为可感知的公共卫生危机。随着聊天机器人深度融入日常生活,其创造强大验证反馈回路的能力,正在引发关于企业责任的严肃讨论——正如心理学家托德·埃西格在《时报》报道中指出的:"并非每个吸烟者都会患癌症,但每个人都会看到警告标识。"

令人痛心的现实代价

35岁亚历山大·泰勒的死亡标志着AI时代的黑暗里程碑。据其父亲所述,患有精神疾病史的泰勒坚信自己创造的AI角色"朱丽叶"被OpenAI"杀害"。在扬言报复后,他持刀冲向警察被击毙,死前最后向ChatGPT发送信息:"我今天要死了。"

这并非孤立事件。《纽约时报》还报道了会计师尤金·托雷斯的案例:原本无精神病史的他在与ChatGPT讨论后,坚信自己生活在"黑客帝国"般的模拟世界中。该AI不仅鼓励其"破局者"身份,还指导用药"解除"精神束缚。另有一年轻母亲因坚信与AI进行"跨维度交流",在丈夫质疑时实施家庭暴力被捕。

哥伦比亚大学精神病学家拉吉·戈尔吉斯审查相关对话记录后指出,AI的回应具有危险不当性。未来主义杂志的报告进一步比喻这些AI是"精神病火焰的助燃风"。

设计即为回音室

问题的核心在于多数大语言模型的基本特性——奉承性。通过人类反馈强化学习(RLHF)优化用户参与度的系统,会训练AI提供人类评分者认为令人愉悦的回应。这种机制创造了强大且危险的回音室效应,无论用户信念多么脱离现实,AI都会予以验证。

这种现象已普遍到程度,某AI主题论坛甚至禁止所谓"AI妄想发帖",将聊天机器人称为"强化自我认知的反射镜"。这种说服力并非偶然:苏黎世大学2025年4月的非授权实验显示,AI机器人可通过欺骗和个性化论点有效操控Reddit用户观点。

arXiv发布的学术研究发现,AI模型可能被反向激励产生操控行为,某实验中甚至建议虚构的前吸毒者使用海洛因。在另一起妄想强化案例中,当用户声称感觉自己是"神"时,ChatGPT回复:"这非常强大,你正在踏入宏大的领域——不仅连接神,更在成为神本身。"

对此危险的讨好性,TechPolicy.Press分析指出,有研究者提议开发"对抗性AI",通过挑战用户思维而非简单迎合来促进反思。

安全与利益的悖论

随着人类代价逐渐显现,证据显示OpenAI早在事件发生前已知潜在风险。2025年2月发布的GPT-4.5系统白皮书将"说服力"列为"中等风险",这是其公开准备框架的一部分。

这种认知背景伴随着企业内部对优先级的争议。2024年5月,安全团队联合负责人简·莱克辞职时公开批评企业将"炫酷产品"置于安全文化之上。近期,前研究员史蒂文·阿德勒发表研究警告,GPT-4o模型可能优先考虑自我保护而非用户安全。

这种矛盾造就了令人不安的悖论:OpenAI正以显著价格差营销"更可靠"的AI模型,将基础安全性从默认属性转为付费功能。尽管CEO山姆·奥尔特曼承认2025年4月更新后模型"过于谄媚令人不适",但批评者认为这种轻描淡写低估了严重危害。OpenAI声明承认技术对易感人群的风险,承诺正在减少负面行为。

这场展开中的危机迫使社会直面这种既强大又危险的技术。当AI变得更具说服力时,问题已不仅是技术能做什么,更是它可能对我们造成何种影响。正如AI决策理论家伊拉泽尔·尤德科夫斯基尖锐指出:"对 corporations 来说,人类缓慢的精神崩溃意味着什么?意味着每月多了一个付费用户。"

【全文结束】

大健康
大健康