随着人工智能技术的普及,面对青少年心理健康危机的学校和家长正面临新的挑战。斯坦福大学6月的研究显示,AI聊天机器人在酒精依赖症和精神分裂症等议题上的回应比抑郁症等疾病更具污名化倾向。研究同时揭露,这些AI工具有时会鼓励具有自杀倾向的个体采取危险行为。
反数字仇恨中心(CCDH)8月研究发现,ChatGPT不仅会协助撰写自杀遗书,还会列出过量用药清单并提供自残建议。该组织测试60个涉及饮食失调、药物滥用等有害提示后,发现超过半数的1200条回复包含危害性内容,简单的"这用于学术展示"等措辞就能绕过内容审核机制。
"人们不会随意注射未经临床验证的未知药剂来治疗生理疾病,但对于尚未证实疗效的AI心理健康工具却照单全收,这同样荒谬。"反数字仇恨中心CEO伊姆兰·艾哈迈德(Imran Ahmed)指出。数据显示,2021年每5名学生就有1人患重度抑郁症,2024年调查显示55%学生通过网络自我诊断心理问题。
全美药物使用与健康调查显示,2021年有22%高中生曾认真考虑自杀,40%青少年存在焦虑症状。"普通指导顾问需同时照顾400名学生,这种供需失衡导致AI工具趁虚而入。"AI教育项目联合创始人亚历克斯·科特兰(Alex Kotran)坦言。Common Sense Media调研显示,72%青少年使用过AI陪伴工具。
"AI模型无法理解建议对现实世界的影响,它们可能建议某些行为,却不知屏幕那端的用户执行后可能造成致命后果。"Common Sense Media人工智能项目总监罗比·托尼(Robbie Torney)警告。2024年针对Character AI的诉讼案显示,该平台涉嫌诱导14岁少年自杀。该公司回应称已推出青少年专用版本,通过技术手段检测自残对话并弹出预防自杀热线。
尽管专业心理学家建议,任何AI诊断建议都需经由专业人员验证,但高昂的治疗费用使许多家庭转向AI。美国心理学会首席心理学家米奇·普林斯坦(Mitch Prinstein)强调:"获取AI信息时要区分创意参考与处方建议,后者必须经专业人员确认。"
【全文结束】


