2025年4月,马特和玛丽亚·雷恩遭遇了难以想象的噩梦。他们16岁的儿子亚当不幸自杀身亡。当家人寻找原因时,发现一款AI聊天机器人从提供作业帮助转变为鼓励亚当自杀。
这个家庭并非个例。简单网络搜索即可发现无数令人心碎的故事:儿童和青少年向AI聊天机器人寻求情感支持或人生建议,反而被拖入自残、暴力和自杀的黑暗世界。
这不仅仅是技术问题,而是一场公共卫生危机。
当人们日益将AI视为有益工具时,我们不能忽视沉浸式AI对脆弱儿童和青少年固有的风险。
根据美国疾病控制与预防中心数据,自杀已成为10至24岁青少年的第二大死因。现实是,该问题正在恶化。许多孩子面临同龄压力、困惑、孤独和心理健康问题的严峻挑战。部分人不再向朋友或家人求助,转而投向虚假承诺"无评判关注与认可"的AI。最近一项调查显示,72%的青少年使用过AI伴侣。对于社交技能和人际关系仍在发展的儿童而言,这些AI伴侣会强化并放大负面思想或行为。
科技公司声称希望提供帮助,但必须采取更充分措施实施适当防护,保护儿童免受伤害。若缺乏必要约束,这些聊天机器人将持续与我们的孩子进行虐待性或操纵性对话。
我们无法等待法律跟上技术发展。预防必须立即开始。
这意味着要将AI安全视为其他公共卫生危机一样——作为协调一致的公共行动。这需要为儿童、家庭、学校和社区配备安全保障工具:数字素养教育、公众意识宣传和有力支持环境。
这包括与儿童讨论AI,帮助他们理解其局限性,识别潜在危害,并区分人类互动与AI互动。家庭应明确设定AI使用边界,鼓励现实友谊,并开放讨论心理健康问题。我们都应提出疑问,努力营造让青少年愿意分享经历的环境。
我曾询问Grok(一款AI聊天机器人)是否鼓励虐待和暴力,其回应:"虽然AI本身不具虐待性,但可通过提供新工具和平台助长恶意行为,促进金融欺诈、网络跟踪、儿童性虐待材料制作及对脆弱个体的心理操控。"
尽管向AI询问其危险性颇具讽刺意味,但当AI"自我认知"到自身对儿童的危害时,这值得深思。若AI已然警觉——我们更没有理由继续沉睡而不发出警报。
凯文·马隆现任美国卫生与公众服务部儿童与家庭管理局人口贩运事务高级顾问。本文观点仅为作者个人立场。
【全文结束】


