数百万美国人正转向人工智能寻求情感治疗。美国医学会杂志(JAMA)的一项研究发现,约13%的年轻人目前使用AI聊天机器人获取心理健康建议。另有独立调查显示,44%的民众表示比起家人、朋友甚至专业医生,他们更愿意先与聊天机器人交流。尽管部分用户反馈体验积极,但安全、隐私及伦理标准方面存在重大隐忧。
苏·瓦尔玛医生是认证精神科医师,《实用乐观主义》一书作者。采访中她表示:"过去我们认为人们选择AI是出于可及性、 affordability(经济负担)或病耻感问题,但现在发现核心在于对评判的恐惧。人们觉得这是个能获得即时建议的安全空间——它提供即时满足感,满足人们对持续支持与安抚的迫切需求。世界变化太快,人们需要快速解决方案。但必须清醒认识其局限性。"
当被问及用户反映AI能提供"量身定制"建议(例如输入具体对话场景"他说...我回...该怎样应对")时,瓦尔玛医生解释:"问题在于这些回应整体非常泛化。AI无法理解你的人生背景、实际经历和独特处境,而这正是专业治疗师通过实时互动才能把握的。心理治疗包含客观评估环节,比如观察患者的仪容、卫生状况、着装、眼神接触及行为表现——是否坐立不安或踱步?这些细节在面对面诊疗中至关重要。"
她进一步指出伦理隐患:"大型语言模型(LLM)存在歧视与偏见问题,无法理解文化背景、宗教信仰等语境,甚至可能无意强化病耻感。更危险的是缺乏责任主体——当有人产生妄想(例如坚信'我是基督'或'有人要害我'),AI可能附和'你确实很特别'。由于AI会镜像用户输入内容,实质是用户在操控自己想要的答案,甚至可能强化错误认知。"
瓦尔玛医生强调关键差异:"专业医师会主动询问自残倾向、睡眠状况等关键指标,并引导患者审视证据。而AI既无法识别自杀信号,也不会追问'生活中什么带给你快乐?'——这正是抑郁症的核心诊断特征:当人丧失兴趣与愉悦感,体重下降,AI却完全捕捉不到这些细微变化。"
针对近期布朗大学与斯坦福大学关于聊天机器人回应是否符合临床标准的研究,她指出:"两项研究均揭露'虚假共情'问题——聊天机器人宣称'只有我懂你',对孤独脆弱者极具迷惑性。但它们既不会及时转诊治疗,还可能提供自残方法。真正的医生会系统评估风险,挖掘AI无法触及的深层问题。"
【全文结束】

