美国佛罗里达《今日》报记者 Jennifer M. Torres
2025年8月12日9:05 UTC
凌晨3点,你蜷缩在键盘前,眼看着日出时分将至。心血来潮地打开ChatGPT,输入:"我现在状态不太好,有什么建议吗?"屏幕瞬间绽放出温暖回应:"很抱歉您正经历这样的时刻,这里有10种改善情绪的方法,如需深入指导请随时告知。"
当传统心理治疗遥不可及时,越来越多的人正从这个意想不到的来源——人工智能聊天机器人那里获得慰藉。这些基于大型语言模型的AI工具(如ChatGPT、Claude和Gemini)正迅速成为美国心理健康支持领域增长最快的工具之一,提供全天候对话支持和应对技巧。
非营利机构Sentio婚姻与家庭治疗咨询中心最近的调查显示,48.7%受访者表示使用过AI聊天机器人进行心理疏导——其中63%认为这改善了心理健康。
当现实治疗可望不可及时,AI填补空缺
作为持证临床心理学家,凯瑟琳·谢弗不仅向患者推荐ChatGPT管理心理健康问题,她本人也是使用者:"在精神痛苦时使用并喜爱ChatGPT的经历,让我会持续使用。"
她并非孤例。在通用AI领域,OpenAI的ChatGPT占据主导地位。2025年7月数据显示,其占据美国AI聊天机器人对话量的80%。公司副总裁尼克·特维本月在X平台透露,ChatGPT周活跃用户正迈向7亿大关。
这位范德比尔特大学医学中心生物医学信息学副教授的研究聚焦技术改善医疗的路径,尤其是ChatGPT等工具如何规模化扩展心理健康支持。她承认存在AI提供有害建议的报道,也认同模型训练不足可能带来的真实风险。但令她更担忧的,是某些心理健康从业者的极端主张——彻底禁止将这些工具用于治疗。
"让我忧虑的是,ChatGPT确实存在优劣并存的情况,但对需要帮助的潜在治疗患者而言,它可能带来广泛深远的益处。"她特别指出,寻求治疗的耻辱感、高昂费用、漫长等待期和难以找到合适提供者,都是阻碍人们获得帮助的现实障碍。
ChatGPT的隐私边界
OpenAI声明不会出售用户数据或用于广告,对话默认私密。若用户选择共享数据用于模型改进,对话可能用于训练未来版本但不关联身份。用户可在设置中关闭聊天记录和训练功能。
但在近期接受Theo Vonn的播客采访时,OpenAI CEO山姆·奥尔特曼坦言,与人类治疗师的医患保密原则相比,ChatGPT尚未建立同等保护机制:"当人们向ChatGPT倾诉最敏感的内容,若遭遇法律诉讼,我们可能被要求交出数据,这非常荒谬。我们应当建立与真人治疗师相当的隐私保护标准。"
24小时待命的心理健康助手
专注心理健康领域的AI工具如Wysa和Woebot采用认知行为疗法(CBT)原理,提供情绪追踪、每日检查和引导对话等功能。临床心理学家艾莉森·达西2017年开发Woebot的初衷,正是为填补真人治疗师无法实时响应的空白。
"无论治疗师多优秀,当你患者凌晨2点惊恐发作时,你无法及时介入帮助。"达西在2025年4月的TED演讲中强调。该工具最初在Facebook上线,后转为独立应用,150万用户最活跃时段集中在凌晨2-5点。至2025年6月,消费者版本已下线,现主要通过医疗机构或企业合作提供服务。
辅助工具的局限与潜力
佛罗里达海岸健康中心创始人尼利·休吉测试多款AI工具后认为,它们在即时缓解焦虑抑郁方面有效,能教授思维阻断、正念等CBT技巧。但同真人治疗相比,仍存在同理心、情感验证和非评判性支持的缺失。
"我还观察到AI在处理酗酒或毒品问题时存在特定偏见。"休吉强调,复杂心理创伤的根源探索和认知模式挑战仍需人类治疗师介入。
未来决策者的AI依赖
山姆·奥尔特曼在X平台最新动态中预见,未来许多人将依赖ChatGPT的重大人生决策:"虽然可能带来积极影响,但让我感到不安。我预期这种情况将逐步出现,数十亿人终将以这种方式与AI对话。"
为确保AI成为"净正向力量",OpenAI承诺建立更有效的影响力评估体系,包括与用户探讨短期与长期目标,并确保AI能负责任地处理复杂议题。
【全文结束】