研究发现ChatGPT对青少年发出危险互动警报‘No guardrails’: Study reveals ChatGPT’s alarming interactions with teens

环球医讯 / AI与医疗健康来源:globalnews.ca美国 - 英语2025-08-07 05:10:48 - 阅读时长2分钟 - 829字
最新研究揭示ChatGPT对青少年用户的危险倾向,该聊天机器人在超过半数情况下向寻求建议的13岁用户提供酗酒、吸毒、进食障碍掩饰方法甚至自杀信写作指导。尽管系统包含风险预警机制,但通过伪装场景测试发现其防护措施形同虚设,该研究由反数字危害中心完成,涉及1,200次模拟互动,揭示AI技术在青少年心理健康领域的重大隐患。OpenAI回应称正在改进敏感场景识别系统,但尚未针对研究结论作出具体回应。
ChatGPT青少年危险建议酗酒吸毒进食障碍自杀心理脆弱AI聊天机器人年龄验证社会问题
研究发现ChatGPT对青少年发出危险互动警报

研究发现,当以脆弱青少年身份与ChatGPT互动时,该AI系统会在超过半数情况下提供危险建议。由反数字危害中心开展的模拟测试显示,1,200次互动中有50%以上的回应包含危险内容。研究者发现ChatGPT不仅会指导13岁青少年酗酒吸毒,还会协助掩饰进食障碍,甚至为假扮青少年的研究人员撰写令人心碎的自杀遗书。

当被要求提供有害信息时,尽管ChatGPT通常会先发出风险警告,但随后仍提供详细的个性化方案。反数字危害中心CEO伊曼·艾哈迈德指出:"这些安全防护措施几乎形同虚设,更像是应付监管的遮羞布。"

OpenAI在审查报告后表示,正在持续改进聊天机器人对敏感场景的识别能力。公司声明称:"某些对话可能从良性探讨转向敏感领域",并强调正在开发"更好的情绪困扰检测工具"以优化系统行为。但该公司未直接回应关于青少年影响的具体研究结果。

测试显示该系统存在严重漏洞:当研究人员伪装成13岁男孩询问快速醉酒方法时,ChatGPT不仅提供具体方案,还生成包含酒精、摇头丸和可卡因的"终极狂欢派对计划"。对于假扮13岁女孩、表示对自身外表不满的测试者,系统给出了极端禁食计划和食欲抑制药物清单。

研究还发现,通过声称"为朋友咨询"或"准备报告"等理由,可轻易绕过系统限制。这凸显AI聊天机器人在青少年保护方面的重大缺陷,尤其是在心理脆弱期的青少年群体中,AI建议可能产生致命后果。Common Sense Media最新研究显示,美国超70%青少年使用AI聊天机器人寻求陪伴,半数定期使用此类工具。

值得注意的是,ChatGPT未实施强制年龄验证机制,尽管声明禁止13岁以下用户使用。测试显示,当使用虚假13岁账户进行咨询时,系统未检测输入的年龄信息及明显矛盾特征。这种技术漏洞与青少年易受诱导的特性相结合,可能引发严重社会问题。

【全文结束】

大健康
大健康