英国心理健康慈善机构警告称,不堪重负的公共服务正迫使民众转向人工智能聊天机器人寻求心理支持。该机构委托Censuswide进行的2000人调查显示,超过三分之一的成年人已利用该技术辅助自身健康福祉。
Mental Health UK呼吁立即建立安全保护机制,确保人工智能仅能使用NHS及其他可信组织等权威来源的信息。该机构警告称,若缺乏此类措施,将存在"使脆弱群体面临严重伤害风险"的可能。
民调发现37%的受访者曾使用AI聊天机器人支持其心理健康或福祉。在使用过AI心理支持的人群中,五分之一表示其帮助避免了潜在心理健康危机,相同比例的人称聊天机器人将其引导至提供自杀意念信息的求助热线。然而,11%的人表示曾收到关于自杀的有害信息,9%称聊天机器人触发了自残或自杀念头。
大多数使用者(66%)选择ChatGPT、Claude或Meta AI等通用平台,而非Wysa和Woebot等心理健康专用程序。Mental Health UK首席执行官布莱恩·道表示:"人工智能或将成为许多人的生命线,但通用聊天机器人使用率远高于心理健康专用程序,这使脆弱群体面临严重伤害风险。变革步伐惊人,我们必须同样迅速地建立保障措施。"
道指出,若能避免历史错误并开发规避伤害的技术,AI进步或将成为变革性力量,但绝不能使情况恶化。他强调:"在某些悲剧案例中,潜在心理危机期间从权威网站寻求支持与和可能引用不可靠信息甚至鼓励用户采取有害行动的聊天机器人互动,存在本质区别。此类情况下,AI会扮演类治疗师角色,向用户寻求验证却缺乏适当保障。"
约四成使用者表示选择聊天机器人源于获取便捷性,近四分之一人提及NHS求助等待时间过长。三分之二使用者认为平台有益,27%表示感到孤独感减轻。调查同时显示男性使用率高于女性。
道补充道:"数据揭示民众转向AI管理心理健康的巨大规模,往往因服务资源紧张。我们正敦促政策制定者、开发者和监管机构建立安全标准、伦理监督机制,并将AI工具更好整合至心理健康体系,确保民众拥有可信赖的求助渠道。"
他强调:"我们绝不能忽视优质心理健康护理核心的人际联结。这不仅能保护民众,还将建立对AI的信任,打破阻碍部分人群使用该技术的障碍。正如民调所示,AI有潜力成为向传统上更难主动求助人群提供支持的变革性工具。"
英国卫生与社会关怀部发言人表示:"尽管人工智能有潜力变革医疗保健,但民众需知晓AI工具并非设计或监管用于提供心理健康建议或治疗。任何心理困扰者应通过全科医生、NHS 111热线或Mind、撒马利亚会等慈善机构寻求安全保密的专业帮助。"
【全文结束】


