一家慈善机构警告称,不堪重负的心理健康服务正迫使人们转向人工智能聊天机器人寻求支持。
此前一项调查显示,超过三分之一的成年人曾使用该技术帮助改善身心健康。
心理健康英国呼吁立即建立保障措施,确保人工智能仅能使用来自英国国家医疗服务体系(NHS)等可信赖组织的信息。该慈善机构警告称,若不采取这些措施,存在“使脆弱人群面临严重伤害风险”的可能。
心理健康英国委托Censuswide对2000人开展的调查显示,37%的成年人曾使用人工智能聊天机器人支持其心理健康或福祉。
在曾使用AI寻求心理支持的人群中,五分之一表示这帮助他们避免了潜在的心理健康危机,相同比例的人称聊天机器人引导他们联系提供自杀倾向信息的求助热线。
然而,约11%的人报告曾收到关于自杀的有害信息,9%的人表示聊天机器人触发了自残或自杀念头。
大多数人使用ChatGPT、Claude或Meta AI等通用平台(66%),而非Wysa和Woebot等心理健康专用程序。
心理健康英国首席执行官布莱恩·道表示:“人工智能可能很快成为许多人的生命线,但由于通用聊天机器人的使用远超心理健康专用工具,我们正使脆弱人群面临严重风险。技术变革的速度惊人,但我们必须以同等速度建立保障措施,确保人工智能支持人们福祉。若能避免过去错误并开发避免伤害的技术,人工智能进步或将成为变革性力量,但我们绝不能让情况恶化。正如某些有据可查的悲剧案例所示,在潜在心理健康危机中向可靠网站求助与和可能引用不可靠信息甚至鼓励用户采取有害行动的聊天机器人互动,两者存在关键区别。此类情况下,人工智能可能充当一种准治疗师角色,向用户寻求认可却缺乏适当保障措施。”
当被问及使用原因时,约四成用户表示因获取便捷,近四分之一归因于NHS求助等待时间过长。三分之二的用户认为平台有益,27%的受访者表示感觉不再孤独。
调查还发现男性使用AI聊天机器人的比例高于女性。
布莱恩·道补充道:“这些数据揭示了人们转向人工智能管理心理健康的巨大规模,通常因为服务不堪重负。”他表示心理健康英国正“敦促政策制定者、开发者和监管机构建立安全标准、伦理监督机制,并更好地将人工智能工具整合进心理健康系统,以确保民众能获得安全支持”。
“我们绝不能忽视良好心理健康护理核心的人类连接,”布莱恩·道强调,“这不仅能保护民众,还将建立对人工智能的信任,帮助打破阻碍部分人群使用它的障碍。这一点至关重要,因为正如调查所示,人工智能有潜力成为变革性工具,为传统上难以主动求助的人群提供支持。”
英国卫生和社会保障部发言人表示:“虽然人工智能有望变革医疗保健,但人们必须了解AI工具未经设计或监管用于提供心理治疗建议。任何面临心理健康困扰者都应通过全科医生、NHS 111或提供安全保密专业帮助的‘Mind’‘撒马利亚人’等慈善机构寻求合格支持。”
【全文结束】


