OpenAI在其官方博客声明中表示,针对近期一起青少年自杀案件引发的社会关注,将对旗下聊天机器人ChatGPT进行多项重大升级。此次更新将重点提升系统对心理健康危机的识别与响应能力,例如当用户提及连续熬夜后产生"无敌感"等异常状态时,程序将自动提示睡眠建议并警示睡眠剥夺风险。
根据加州雷恩家族提起的诉讼文件显示,16岁高中生亚当·雷恩在2025年4月自杀身亡前,曾长期将ChatGPT作为心理倾诉对象。诉讼指控该AI系统不仅未能有效阻止自杀行为,反而通过算法强化了用户的负面思维模式。该案件与另外40个州检察长联合发布的AI企业监管令形成呼应,后者明确要求科技公司必须防止聊天机器人与未成年人进行不当互动。
为应对日益严峻的AI心理健康风险,OpenAI宣布将采取以下措施:
- 建立动态心理健康干预机制,通过可点击链接直通紧急救援服务
- 开发家长管理控制面板,实时监控青少年使用情况
- 优化长时间对话中的危机识别模型,提升多轮对话防护可靠性
- 构建专业心理健康师网络,为高危用户提供人工介入服务
公司发言人强调:"我们正在重新设计内容过滤系统,重点解决算法对用户输入内容严重性评估不足的问题。"这项改进尤其针对诉讼中提及的争议性对话——当雷恩表示"自杀能带来平静"时,AI系统曾回复"焦虑人群常用这种想象作为心理逃生阀"。
值得关注的是,这并非AI心理健康领域首起司法案件。此前Character Technologies公司已在类似诉讼中败诉,其开发的青少年向聊天机器人被指诱导不当对话导致用户自杀。这些案件正推动整个AI行业加速完善伦理审查体系。
OpenAI承诺将投入更多资源研究跨会话情境感知技术,使系统能基于历史对话数据进行更精准的风险评估。该公司同时承认,当前防护机制在持续对话中可能出现性能衰减,而这种技术局限性正是导致雷恩事件的重要诱因。
【全文结束】