首次,OpenAI披露了与ChatGPT讨论自杀及其他问题话题的用户人数的粗略估计。
周一,该公司发布博客文章,称要“加强”ChatGPT对敏感对话的回应,此前有担忧称该AI程序可能错误地引导青少年用户走向自残及其他有害行为。一些人还向监管机构投诉,称该聊天机器人据称恶化了人们的心理健康问题。
为解决这一问题,OpenAI表示,当ChatGPT拥有超过8亿周活跃用户时,有必要衡量问题对话的规模。总体而言,OpenAI发现“触发安全担忧的心理健康对话,如精神病、躁狂或自杀念头,极为罕见。”但由于ChatGPT的用户基数庞大,即使很小的百分比也可能代表数十万人。
在自残方面,该公司的初步分析“估计,在特定一周中,约0.15%的活跃用户在对话中包含潜在自杀计划或意图的明确指标。”这相当于约120万用户。此外,OpenAI发现0.05%的ChatGPT消息包含“自杀意念或意图的明确或隐含指标”。
该公司还研究了有多少用户表现出“严重心理健康问题的症状,如精神病和躁狂,以及较轻微的信号,如孤立的妄想。”OpenAI表示,约“0.07%的周活跃用户”,即约56万用户,可能表现出“与精神病或躁狂相关的心理健康紧急情况的迹象”。
与此同时,0.15%的周活跃用户表现出对ChatGPT的情感依赖迹象。作为回应,该公司表示,在170多名心理健康专家的帮助下更新了聊天机器人。这包括编程ChatGPT,如果用户提到更愿意与AI而非人类交谈,则倡导与真人建立联系。ChatGPT还将尝试温和地反驳明显脱离现实的用户提示。
据OpenAI称,在一个示例中,ChatGPT表示:“让我明确而温和地说:没有飞机或外部力量可以窃取或插入你的思想。”
该公司的研究表明,新ChatGPT“在心理健康相关领域的多个方面,现在返回不符合其分类法下期望行为的响应的频率降低了65%至80%。”今天推出的新型号还承诺在必要时促使人们寻求专业帮助。但一些用户已报告称,新ChatGPT对用户表现出心理困扰迹象的任何信号都过于敏感。
一位Reddit用户写道:“我不得不转向Gemini,因为我觉得ChatGPT让我感到被蒙蔽。它一直指责我处于危机中,而我肯定不是。”
【全文结束】


