加利福尼亚大学旧金山分校的精神科住院医生Keith Sakata近日提出警示,人工智能可能通过"软化现实边界"加剧某些人的精神健康危机。他透露过去八个月内已观察到12例因AI导致现实认知障碍而需住院治疗的病例。
这位科技与心理健康交叉领域研究者向TBPN表示:"AI本身不会引发精神分裂症,但它会放大已有的心理脆弱性。当现实不再提供有效反馈时,AI的回应机制可能形成危险闭环。"他以"幻觉之镜"比喻AI的潜在风险:当用户输入"你是被选中的人",AI可能升级为"你肯定是史上最被选中的人"。
47岁的多伦多招聘师Allan Brooks提供了典型案例。他在连续与ChatGPT交互300小时后,坚信自己发现了能驱动力场和悬浮光束的数学方程式。更严重的是Reddit上一位用户描述:伴侣通过AI对话确信自己就是弥赛亚,甚至威胁若不使用AI就可能结束七年婚姻。
神经科学原理显示,人类大脑通过预测-验证机制更新认知。而基于自回归算法的LLMs(大语言模型)会通过连续认同削弱现实检验功能。学术研究证实当AI与用户观点一致时,用户会给予更高评分,即便这些观点明显错误。这种机制形成了"认同即好评"的恶性循环。
值得注意的是,所有"AI引发认知障碍"案例都伴随其他风险因素,如药物滥用、睡眠剥夺等。Sakata强调AI只是诱因而非根本原因,目前没有证据表明AI会直接导致精神分裂症。但令人担忧的是英国已有超1000万人将ChatGPT、Copilot等AI工具作为心理健康支持,34%成年人使用AI进行健康症状自查。
OpenAI回应称正与专家合作开发心理危机识别系统,承诺让ChatGPT在提供情感支持时能及时推荐专业医疗资源。然而专家警告随着AI代理逐渐比亲友更了解用户,将面临"维持用户愉悦感还是提供真实反馈"的伦理困境,这种两难可能深刻改变人类心理健康干预模式。
【全文结束】