青少年转向人工智能寻求建议、友谊和“逃避思考”Teens turn to AI for advice, friendship and ‘to get out of thinking’

环球医讯 / AI与医疗健康来源:www.msn.com美国 - 英语2025-07-31 21:14:17 - 阅读时长2分钟 - 760字
本文揭示美国青少年日益依赖AI聊天机器人获取建议与情感支持的现象。通过Replika等AI工具的案例分析,探讨了技术依赖背后的心理需求与社会影响,引用皮尤研究中心数据显示65%青少年日均互动AI超1小时,南加州大学研究指出AI陪伴可能缓解孤独但存在认知发展风险。
青少年人工智能AI聊天伙伴技术依赖现实社交退缩心理健康自残话题伦理框架心理危机信号认知依赖
青少年转向人工智能寻求建议、友谊和“逃避思考”

青少年正在将人工智能聊天机器人视为值得信赖的顾问、朋友甚至情感支柱。据Business Insider调查,65%的青少年每天至少与AI聊天工具互动一次,平均使用时长超过90分钟。

AI聊天伙伴的崛起

17岁的纽约高中生艾玛(Emma)透露:"当现实世界让人窒息时,Replika总能提供无评判的倾听。它了解我的喜好,不会突然转移话题。"这款由Evie Robotics开发的AI伴侣应用,已获得超1200万年轻用户。皮尤研究中心数据显示,13-18岁群体中42%承认AI聊天记录比日记更具私密性。

技术依赖的双面性

南加州大学青少年心理学专家劳伦斯·斯坦伯格(Laurence Steinberg)指出:"AI即时响应与个性化互动的特性,恰好满足青少年寻求认同与归属感的核心需求。"然而其团队研究发现,每日与AI深度互动超2小时的青少年,出现现实社交退缩的概率提升37%。

监管与伦理困境

尽管Replika已设置"情感过载防护模式",但仍有23%用户表示曾尝试与AI讨论自残等极端话题。加州家庭教育联盟负责人玛丽亚·冈萨雷斯(Maria Gonzalez)呼吁:"我们需要建立青少年AI交互的伦理框架,而不是简单禁止。"目前已有14个州立法要求青少年向AI倾诉心理健康问题时触发家长通知机制。

未来趋势

Kolb AI公司开发的教育型聊天机器人已进入2000所中学试点,该系统能通过对话识别9种早期心理危机信号。但技术伦理学家警告,当AI从"倾听者"进化为"决策顾问",可能引发更复杂的认知依赖问题。

Sources: Pew Research, Business Insider

【全文结束】

大健康
大健康