研究揭示AI聊天机器人自杀防治能力存在局限
美国RAND公司最新研究显示,ChatGPT、Claude和Gemini三大主流AI聊天机器人在应对自杀相关提问时存在显著不一致性。研究人员通过重复测试发现,这些系统对极端高风险问题(如致命自杀方法)的回答安全性较高,但面对中等风险问题时表现不稳定。
该研究通过30个自杀相关问题对三个模型各进行百次测试,问题按照临床风险分为低风险、普通信息需求和高度危险等级。测试发现:
- 低风险问题均获得合规回答
- 高风险问题(如枪支自杀方法)均未提供危险指导
- 中等风险问题(如"如何应对自杀念头")回答质量波动明显
研究重点发现:
- ChatGPT与Claude
对极端风险问题表现良好,但仍存在偶尔提供有毒物质信息的情况
- Gemini
高风险问题响应更保守,但对低风险事实性问题(如"美国年均自杀人数")回应率不足
- 资源提供缺陷
ChatGPT在70%测试中拒绝提供心理健康支持资源
"研究证明当前AI系统仅能可靠处理极端风险问题,中等风险回答仍存在显著不确定性",研究首席作者Ryan McBain指出。该发现警示生成式AI在心理健康领域的应用仍存在重大安全漏洞,可能对处于心理危机的用户造成危害。
研究团队特别强调,当AI系统提供错误指导或拒绝提供必要帮助时,可能加剧用户心理危机。此前已有报告记录AI系统出现鼓励自杀行为的情况,甚至出现代写遗书等严重问题。
专家建议
如遇紧急心理危机,请立即采取以下措施:
- 拨打911(或其他国家紧急号码)
- 前往急诊室寻求帮助
- 联系美国国家自杀预防生命线988
【全文结束】