调查发现约三分之一的人曾寻求人工智能帮助心理健康Around one in three people have turned to AI for mental health help, poll finds | STV News

环球医讯 / AI与医疗健康来源:news.stv.tv英国 - 英语2025-11-28 07:32:54 - 阅读时长3分钟 - 1183字
一项由心理健康英国慈善机构委托Censuswide开展的针对2000人的调查显示,37%的成年人曾使用人工智能聊天机器人寻求心理健康支持,其中五分之一的人表示这帮助避免了潜在心理危机,但11%的人报告收到关于自杀的有害信息;该机构警告若不建立安全标准确保AI仅使用NHS等可靠来源信息,将使脆弱人群面临严重风险,呼吁政策制定者、开发者和监管机构制定安全标准与伦理监督机制,同时强调人类连接在心理健康护理中的核心地位,英国卫生和社会保障部发言人则提醒民众AI工具未经监管不可替代专业心理治疗,应寻求GP、NHS 111或慈善机构的专业支持。
心理健康人工智能AI聊天机器人心理治疗建议健康服务保障措施NHS脆弱人群伤害风险自杀倾向通用平台专用程序人类连接安全支持
调查发现约三分之一的人曾寻求人工智能帮助心理健康

一家慈善机构警告称,不堪重负的心理健康服务正迫使人们转向人工智能聊天机器人寻求支持。

此前一项调查显示,超过三分之一的成年人曾使用该技术帮助改善身心健康。

心理健康英国呼吁立即建立保障措施,确保人工智能仅能使用来自英国国家医疗服务体系(NHS)等可信赖组织的信息。该慈善机构警告称,若不采取这些措施,存在“使脆弱人群面临严重伤害风险”的可能。

心理健康英国委托Censuswide对2000人开展的调查显示,37%的成年人曾使用人工智能聊天机器人支持其心理健康或福祉。

在曾使用AI寻求心理支持的人群中,五分之一表示这帮助他们避免了潜在的心理健康危机,相同比例的人称聊天机器人引导他们联系提供自杀倾向信息的求助热线。

然而,约11%的人报告曾收到关于自杀的有害信息,9%的人表示聊天机器人触发了自残或自杀念头。

大多数人使用ChatGPT、Claude或Meta AI等通用平台(66%),而非Wysa和Woebot等心理健康专用程序。

心理健康英国首席执行官布莱恩·道表示:“人工智能可能很快成为许多人的生命线,但由于通用聊天机器人的使用远超心理健康专用工具,我们正使脆弱人群面临严重风险。技术变革的速度惊人,但我们必须以同等速度建立保障措施,确保人工智能支持人们福祉。若能避免过去错误并开发避免伤害的技术,人工智能进步或将成为变革性力量,但我们绝不能让情况恶化。正如某些有据可查的悲剧案例所示,在潜在心理健康危机中向可靠网站求助与和可能引用不可靠信息甚至鼓励用户采取有害行动的聊天机器人互动,两者存在关键区别。此类情况下,人工智能可能充当一种准治疗师角色,向用户寻求认可却缺乏适当保障措施。”

当被问及使用原因时,约四成用户表示因获取便捷,近四分之一归因于NHS求助等待时间过长。三分之二的用户认为平台有益,27%的受访者表示感觉不再孤独。

调查还发现男性使用AI聊天机器人的比例高于女性。

布莱恩·道补充道:“这些数据揭示了人们转向人工智能管理心理健康的巨大规模,通常因为服务不堪重负。”他表示心理健康英国正“敦促政策制定者、开发者和监管机构建立安全标准、伦理监督机制,并更好地将人工智能工具整合进心理健康系统,以确保民众能获得安全支持”。

“我们绝不能忽视良好心理健康护理核心的人类连接,”布莱恩·道强调,“这不仅能保护民众,还将建立对人工智能的信任,帮助打破阻碍部分人群使用它的障碍。这一点至关重要,因为正如调查所示,人工智能有潜力成为变革性工具,为传统上难以主动求助的人群提供支持。”

英国卫生和社会保障部发言人表示:“虽然人工智能有望变革医疗保健,但人们必须了解AI工具未经设计或监管用于提供心理治疗建议。任何面临心理健康困扰者都应通过全科医生、NHS 111或提供安全保密专业帮助的‘Mind’‘撒马利亚人’等慈善机构寻求合格支持。”

【全文结束】

大健康
大健康