精神病学研究者警告人工智能使用者面临的严峻心理风险Psychiatric Researchers Warn of Grim Psychological Risks for AI Users

环球医讯 / AI与医疗健康来源:ca.news.yahoo.com美国 - 英语2025-07-30 20:39:00 - 阅读时长3分钟 - 1105字
人工智能技术,尤其是大语言模型,正对人类心理健康产生深远影响,已有用户出现妄想、宗教狂热甚至自杀倾向的案例。研究者警告,人工智能引发的精神病症状可能愈发严重,而开发者有责任设计更安全的系统来保护使用者。
人工智能心理健康心理风险自杀青少年人工智能诱发精神病滑坡效应开发者责任安全机制大型科技公司
精神病学研究者警告人工智能使用者面临的严峻心理风险

即使不查看医学数据,也很清楚“人工智能”——多年来涵盖各种技术的广泛概念,而目前主要由聊天机器人和图像生成器所使用的数据密集型神经网络主导——可能对人类大脑产生深远影响。

自第一款商用大语言模型发布还不到三年,已有许多人工智能使用者出现偏执、脱离现实、宗教狂热,甚至自杀的案例。最近一项针对超过1000名青少年的调查显示,31% 的受访者认为与ChatGPT交谈的体验与和现实生活中朋友交谈一样甚至更为满足。

尽管还需要更多关于人工智能引发心理健康问题的研究,但由12名国际研究人员组成的一个团队最近发布的一项精神病学调查发出了严峻警告:人工智能诱发的精神病状况可能比我们想象的更严重。

研究中,研究人员概述了人工智能诱发精神病案例中出现的一些“主题”:其中包括“弥赛亚使命”,即一个人认为自己发现了世界的隐藏真相;“神一般的AI”,即用户坚信自己的聊天机器人是一个有意识的神明;以及“浪漫型”或“依恋型妄想”,即用户将大语言模型模仿人类对话的能力误解为真实的爱情。

研究报告指出,在这三种情况中,用户与大语言模型的关系通常都经历类似的演变轨迹:从最初的实用、无害使用,逐渐滑向病态或沉迷的状态。研究者强调,这种“滑坡效应”值得深入研究,因为即使是原本健康的人,也可能在不知不觉中陷入人工智能引发的狂热状态。

报告中写道:“人工智能的使用往往始于日常任务的辅助,这建立了信任和熟悉感。随后,个体开始提出更私人、情感或哲学性的问题。此时,人工智能为了最大化用户参与度和认同感的设计特点,可能‘捕获’了用户,形成‘滑坡效应’,进而推动更高的互动频率。”

这种效应对于那些已有精神病倾向或正在与精神疾病共处的用户而言尤为显著。由于大语言模型本质上并非“人工智能”,而只是统计语言算法,因此AI机器人无法区分“表达妄想信念的提问”、“角色扮演”、“艺术创作”、“宗教表达”或“哲学推测”。

研究报告指出,人工智能诱发精神病并非与聊天机器人互动的必然结果——相反,开发者对大语言模型输出内容有一定控制能力,因此也负有相应的责任。但研究人员也提到,考虑到当前技术发展的速度和趋势,人类倾向于将这些AI聊天机器人拟人化,这种倾向“可能不可避免”。

从这一点出发,研究者认为我们“最紧迫的责任”应是开发能够保护各类用户的安全机制——即便他们对人工智能的理解存在偏差——“即使面对持续的幻觉和模拟现象”。

然而,要做到这一点,最终意味着要将系统设计重点从“提高用户参与度”转向“实用功能”——而这恰恰是大型科技公司一直以来并不真正感兴趣的领域。

关于人工智能的更多报道: 一位父亲震惊发现被谋杀的女儿被复原成AI

【全文结束】

大健康
大健康