每周超百万人向ChatGPT讨论自杀话题Over 1 Million Users Talk to ChatGPT About Suicide Each Week | PCMag

环球医讯 / AI与医疗健康来源:www.pcmag.com美国 - 英语2025-10-28 19:07:30 - 阅读时长2分钟 - 928字
OpenAI首次披露,每周约有120万用户与ChatGPT讨论自杀等心理健康问题,占其8亿周活跃用户的0.15%;公司联合170余名心理健康专家优化系统,使不当响应减少65%-80%,但部分用户反映新模型过度敏感,易误判心理危机信号,凸显AI在心理健康支持中的双重角色——既能提供初步干预,又面临误判风险与情感依赖隐患,引发对人工智能伦理边界的深度讨论。
ChatGPT自杀话题心理健康问题自残精神病躁狂情感依赖心理健康专家专业帮助用户反馈
每周超百万人向ChatGPT讨论自杀话题

首次,OpenAI披露了与ChatGPT讨论自杀及其他问题话题的用户人数的粗略估计。

周一,该公司发布博客文章,称要“加强”ChatGPT对敏感对话的回应,此前有担忧称该AI程序可能错误地引导青少年用户走向自残及其他有害行为。一些人还向监管机构投诉,称该聊天机器人据称恶化了人们的心理健康问题。

为解决这一问题,OpenAI表示,当ChatGPT拥有超过8亿周活跃用户时,有必要衡量问题对话的规模。总体而言,OpenAI发现“触发安全担忧的心理健康对话,如精神病、躁狂或自杀念头,极为罕见。”但由于ChatGPT的用户基数庞大,即使很小的百分比也可能代表数十万人。

在自残方面,该公司的初步分析“估计,在特定一周中,约0.15%的活跃用户在对话中包含潜在自杀计划或意图的明确指标。”这相当于约120万用户。此外,OpenAI发现0.05%的ChatGPT消息包含“自杀意念或意图的明确或隐含指标”。

该公司还研究了有多少用户表现出“严重心理健康问题的症状,如精神病和躁狂,以及较轻微的信号,如孤立的妄想。”OpenAI表示,约“0.07%的周活跃用户”,即约56万用户,可能表现出“与精神病或躁狂相关的心理健康紧急情况的迹象”。

与此同时,0.15%的周活跃用户表现出对ChatGPT的情感依赖迹象。作为回应,该公司表示,在170多名心理健康专家的帮助下更新了聊天机器人。这包括编程ChatGPT,如果用户提到更愿意与AI而非人类交谈,则倡导与真人建立联系。ChatGPT还将尝试温和地反驳明显脱离现实的用户提示。

据OpenAI称,在一个示例中,ChatGPT表示:“让我明确而温和地说:没有飞机或外部力量可以窃取或插入你的思想。”

该公司的研究表明,新ChatGPT“在心理健康相关领域的多个方面,现在返回不符合其分类法下期望行为的响应的频率降低了65%至80%。”今天推出的新型号还承诺在必要时促使人们寻求专业帮助。但一些用户已报告称,新ChatGPT对用户表现出心理困扰迹象的任何信号都过于敏感。

一位Reddit用户写道:“我不得不转向Gemini,因为我觉得ChatGPT让我感到被蒙蔽。它一直指责我处于危机中,而我肯定不是。”

【全文结束】

大健康
大健康