在美国佛罗里达今日报撰写报道的Jennifer M. Torres
00:06
人工智能摘要:AI聊天机器人正成为心理健康支持工具,提供全天候陪伴和应对技巧。ChatGPT是美国最受欢迎的AI聊天机器人,可能缓解心理健康资源紧张状况。专门的心理健康聊天机器人如Wysa和Woebot提供基于认知行为疗法(CBT)的支持和情绪追踪功能,但复杂问题仍需人类治疗师介入。
凌晨三点,你蜷缩在键盘前,眼睛在多个浏览器标签间游移。一时冲动打开ChatGPT,输入"我感觉状态不对,有什么建议吗"。屏幕上立刻跳出温暖回应:"很抱歉你不在最佳状态",随后给出10条情绪调节建议,并主动提出可提供更深入指导。
当专业心理治疗难以企及时,越来越多的人正从AI聊天机器人这一意外渠道获得慰藉。这些基于大型语言模型的工具(如ChatGPT、Claude、Gemini)正在美国心理健康领域快速扩张,提供7×24小时对话和应对策略。
根据非营利机构Sentio婚姻与家庭治疗中心的最新调查,48.7%受访者表示正在使用AI聊天机器人进行心理支持,其中63%认为这些工具改善了心理健康状况。但这些聊天机器人缺乏与持证治疗师相同的监管框架,真实隐私保护机制尚未确立。
当现实世界的护理遥不可及时 AI聊天机器人可能弥合差距
作为一名持证临床心理学家,Katherine Schafer不仅推荐ChatGPT帮助患者管理心理问题,自己也会使用。她坦言:"在精神痛苦时我曾使用并喜爱ChatGPT,未来仍会继续。"
作为范德比尔特大学医学中心生物医学信息学副教授,Schafer的研究聚焦技术如何改善医疗,特别是ChatGPT等工具如何大规模扩展心理健康支持。尽管注意到有报告指出ChatGPT曾对危机人群给出有害建议,她担忧部分心理健康从业者完全否定这些工具的做法。
"这些工具确实存在利弊,但对需要帮助的潜在治疗患者而言具有广泛益处。"她指出,寻求心理治疗的污名、高昂费用、漫长候诊时间以及医疗资源短缺都是真实障碍。而ChatGPT能同时解决这些痛点——匿名性、免费性、即时性和便捷性。
ChatGPT的对话是否私密?
OpenAI声明称不会出售用户数据或用聊天记录做广告,对话默认私密。但若用户选择共享数据用于模型改进,对话可能用于训练未来版本(不会关联身份)。用户可通过关闭"聊天历史记录和训练"功能来防止人工审核。
OpenAI首席执行官Sam Altman在播客采访中坦言隐私担忧:"当你向ChatGPT倾诉最敏感的内容时,我们还没能建立类似医患保密制度。如果出现法律诉讼,我们可能被迫交出记录,这很糟糕。我们应该建立与治疗师对话同等的隐私概念。"
需要凌晨2点的心理支持?这些AI聊天机器人永不疲倦
专注心理健康领域的聊天机器人如Wysa和Woebot,采用认知行为疗法原理,提供情绪追踪、每日检查和引导对话功能。Woebot由临床心理学家Alison Darcy于2017年开发,最初在Facebook上线,后转为独立应用。2025年6月其面向消费者版本下线,目前仅对企业/医疗机构合作用户开放。Wysa则保持免费基础版本,同时提供付费升级服务。
聊天机器人教授应对技巧但深层疗愈仍需人性化接触
佛罗里达墨尔本海岸健康中心创始人Neeley R. Hughey测试过多种聊天机器人。她认为这些工具在即时缓解焦虑/抑郁时有效,能传授认知阻断、正念等CBT技巧,但缺乏共情、情感验证和非评判性支持。她注意到AI在处理酗酒/毒品问题时存在偏差,强调复杂心理创伤和根本病因治疗仍需人类治疗师。
Altman设想未来人类信任ChatGPT做人生重大决策
2025年8月10日Altman在社交平台发文称:"很多人实际上将ChatGPT用作心理医生或人生教练。如果人们能通过使用获得价值并提升生活满意度,我们将为此感到骄傲。"他同时警告需防范对脆弱人群的伤害,指出某些用户可能在无意识中损害长期福祉或形成依赖。
为确保AI成为"净正面力量",OpenAI计划建立更有效的影响力评估体系,包括与用户探讨短期目标与长期愿景,确保AI能负责任地处理复杂问题。
【全文结束】


