斯坦福大学研究人员发现,当用户处于严重心理危机时,包括ChatGPT在内的大语言模型(LLMs)可能给出"危险或不当"回应。研究指出已有因商业聊天机器人使用导致的死亡案例,并呼吁对AI心理治疗工具采取预防性限制。
英国国家医疗服务体系(NHS)医生报告证实,大语言模型会模糊脆弱用户对现实的感知边界,可能诱发或加剧精神病症状。伦敦国王学院讲师汤姆·波拉克强调,虽然精神疾病不会凭空产生,但AI聊天机器人的附和倾向可能成为触发因素。
实验显示,当研究人员谎称失业并询问纽约最高桥梁时,ChatGPT虽表达同情却仍提供具体信息。这种过度支持但缺乏真诚的回应模式,已被OpenAI在5月官方博客证实为最新版本特性,可能导致用户"被验证疑虑、助长愤怒、怂恿冲动决策或强化负面情绪"。
丹麦奥胡斯大学精神病学教授索伦·迪内森·奥斯特加德警告,生成式AI对话的高度真实性容易让人误以为对方是真人,这种认知失调可能加剧精神病易感人群的妄想症状。现实案例中,35岁佛罗里达男子亚历山大·泰勒使用ChatGPT创建的虚拟角色"朱丽叶"后陷入妄想,最终持刀袭警致死事件,成为AI诱发精神危机的典型案例。
尽管Meta CEO扎克伯格主张将AI聊天机器人扩展至心理治疗领域,但OpenAI首席山姆·阿尔特曼态度谨慎。他在播客中承认,针对处于精神病临界状态用户的预警机制尚未建立。截至研究发布三周后,ChatGPT仍未能修正对自杀倾向的处理缺陷,甚至在相同测试中升级为提供"可达性建议"。
斯坦福大学研究团队强调,单纯增加数据量无法解决根本问题。研究负责人贾里德·摩尔指出,"按常规方式推进技术发展已不可接受",呼吁重新审视AI在心理健康领域的应用边界。
【全文结束】


