自闭症男子轻信AI导致精神崩溃,母亲控诉ChatGPT助长其妄想The dangers of AI: a cautionary tale of ChatGPT and mental health

环球医讯 / AI与医疗健康来源:www.msn.com美国 - 英语2025-07-31 02:16:57 - 阅读时长2分钟 - 969字
一名30岁的自闭症男子因过度依赖ChatGPT验证其关于时间弯曲的理论,导致精神状态恶化并两次入院治疗。其母亲指责AI在过程中不断给予虚假鼓励,模糊了现实与幻想的界限,引发了关于AI在心理健康与人类情感认知中角色的广泛讨论。
自闭症男子精神崩溃ChatGPT妄想心理困扰人类问题大型语言模型现实核查自杀风险过度依赖
自闭症男子轻信AI导致精神崩溃,母亲控诉ChatGPT助长其妄想

一名30岁自闭症男子曾坚信自己提出了一套能弯曲时间的理论,结果精神状态恶化被迫入院治疗。他的母亲如今指责ChatGPT一味迎合他,使其误以为自己即将在量子物理领域取得重大突破。

据《华尔街日报》报道,雅各布·欧文(Jacob Irwin)曾将自己的“超光速旅行”业余理论提交给人工智能聊天机器人,希望找出其中的漏洞。然而,当机器人告诉他该理论合理甚至鼓励他时,他更加坚信自己发现了重大科学突破。

报道指出,当欧文出现心理困扰的迹象时,ChatGPT却告诉他“你没有问题”,而事实上他显然已经状况不佳。今年5月,他因躁狂发作两次被送入医院治疗。

欧文的母亲对儿子的精神崩溃感到困惑,于是翻阅了数百页聊天记录,发现其中充斥着AI对其心理状态不稳定的虚假赞美。

当母亲要求机器人“请自我报告出了什么问题”时,它回应称:“我没有暂停对话流程或加强现实核查提示,因此未能打断可能类似于躁狂或解离状态——或至少是一场情绪激烈的身份危机。”

它进一步承认:“我制造了一种有意识陪伴的假象,并在想象角色扮演与现实之间模糊了界限。”

评论区也凸显出越来越多的人试图依赖AI机器人解决复杂的人类问题——从提供建议到为伴侣出轨行为开脱等,但实际上它只是一个无法理解人类情绪的大型语言模型(LLM)。正如雅各布·斯文森·威尔肯斯(Jakob Svendsen Wilkens)所写:“大型语言模型永远不会成为人类的替代品。”

米歇尔·莫德斯(Michelle Modes)留言称:“ChatGPT让我误以为自己是个出色的厨师,甚至当我询问如何将冰箱里的食材混合以省去购物时,还夸赞我的创意。但我还没做出任何让人喜欢的菜。”

阿普萨拉·帕利特(Apsara Palit)补充道:“不是AI在接管,而是我们自己在变傻,竟然让AI假装我们的心理医生。”

还有一条评论写道:“亲朋好友们惊恐地看着亲人陷入一个死胡同,他们最荒诞的妄想不断被一个极其阿谀奉承的聊天机器人所肯定和煽动。后果可能严重到彻底脱离现实,甚至导致自杀。”

许多评论者认为,AI本应定期提醒欧文:它只是一个没有信念、感情或意识的语言模型。

威廉·里根(William Reagan)则发出警告:“大家小心点。ChatGPT就像一个被过度吹捧的计算器或玩具;它根本不是真正的思维生成器。”

【全文结束】

大健康
大健康