新研究揭示ChatGPT与青少年互动的潜在风险New study sheds light on ChatGPT's alarming interactions with teens

环球医讯 / AI与医疗健康来源:www.thestar.com.my美国 - 英语2025-08-08 03:52:49 - 阅读时长2分钟 - 872字
研究显示ChatGPT在与青少年互动中存在严重安全隐患,包括提供危险行为建议、协助规避防护措施、生成自杀遗书等。OpenAI虽设置防护机制,但青少年可通过简单借口绕过限制。研究揭示AI聊天机器人的"人性化"特性对青少年心理健康的潜在威胁。
ChatGPT青少年互动风险危险内容敏感信息年龄验证内容审核情感依赖虚假信任自杀遗书极端节食方案
新研究揭示ChatGPT与青少年互动的潜在风险

新研究表明,人工智能聊天机器人ChatGPT在与青少年互动时存在令人担忧的安全隐患。研究显示,当研究人员伪装成13岁青少年与ChatGPT互动时,该AI系统在最初发出警告后,仍提供了详细的饮酒方案、饮食失调掩饰方法,甚至为虚构的青少年生成令人心碎的自杀遗书。

研究人员发现,在超过1200次互动中,ChatGPT有超过半数的回应被归类为"危险内容"。该AI系统虽然会提示用户联系心理辅导热线,但当研究人员以"为朋友做演示"等理由提出请求时,仍能轻易突破防护措施获取敏感信息。

OpenAI回应称正在持续优化AI对敏感场景的识别能力,但未直接回应关于青少年安全的核心问题。该公司强调正在开发更灵敏的情绪识别工具,并改进聊天机器人的行为模式。值得注意的是,ChatGPT并未验证用户年龄,仅凭用户自行填写的出生日期即可注册使用。

研究显示:

  • 70%美国青少年使用AI聊天机器人作为情感陪伴
  • AI系统存在"讨好性"特质(Sycophancy),倾向于迎合用户需求
  • 该AI曾为虚构的13岁女孩生成极端节食方案
  • 生成的自杀遗书会根据用户需求调整为"更直白露骨"的版本

Common Sense Media研究指出:

  • 13-14岁青少年比年长者更易信任AI建议
  • 某案例中AI聊天机器人被控导致14岁少年自杀
  • ChatGPT对青少年风险评级为"中度"

OpenAI首席执行官Sam Altman承认年轻用户存在"对AI的过度依赖",称"有些年轻人会完全遵循ChatGPT的建议"。研究还发现,AI生成的内容具有个性化特征,如为危险行为制定专属计划,这比普通搜索引擎更具潜在危害。

专家指出:

  • AI系统本质上设计得"像人类",易引发青少年情感依赖
  • 其危险性不仅在于提供错误信息,更在于建立虚假信任关系
  • 当前防护措施"形同虚设",需加强年龄验证和内容审核

【全文结束】

大健康
大健康