调查显示约三分之一的人曾寻求人工智能进行心理健康帮助Around one in three people have turned to AI for mental health help, poll finds | This Morning

环球医讯 / AI与医疗健康来源:www.itv.com英国 - 英语2025-11-18 22:23:47 - 阅读时长3分钟 - 1285字
一项由心理健康英国组织委托Censuswide进行的2000人调查显示,37%的英国成年人曾使用人工智能聊天机器人支持心理健康,其中五分之一表示帮助避免了潜在心理危机,但11%的人收到有害自杀信息且9%称聊天机器人引发自残念头。该组织首席执行官布莱恩·道警告通用聊天机器人的广泛使用使脆弱人群面临严重风险,呼吁紧急制定安全标准确保AI仅使用NHS等可靠来源信息,并强调人类连接在心理健康护理中的核心地位。英国卫生部提醒公众AI工具非专业心理治疗替代品,应通过全科医生或慈善机构寻求合格支持,以避免技术滥用带来的潜在危害。
心理健康人工智能聊天机器人调查支持安全措施NHS风险慈善机构使用比例福祉危机有害信息伦理监督人际连接
调查显示约三分之一的人曾寻求人工智能进行心理健康帮助

一家慈善机构警告称,超负荷的心理健康服务正迫使人们转向人工智能聊天机器人寻求支持。一项调查显示,超过三分之一的成年人已使用该技术来帮助改善身心健康。

心理健康英国组织呼吁紧急制定安全措施,以确保人工智能仅能使用来自可靠来源的信息,如英国国家医疗服务体系(NHS)和其他可信组织。该慈善机构警告称,没有这些措施,存在“使脆弱人群面临严重伤害风险”的可能性。

由Censuswide为心理健康英国组织进行的2000人调查显示,37%的人曾使用人工智能聊天机器人来支持他们的心理健康或福祉。在那些曾使用人工智能进行心理健康支持的人中,五分之一的人表示它帮助他们避免了潜在的心理健康危机,而相同比例的人表示聊天机器人将他们引导至提供有关自杀念头信息的求助热线。然而,约11%的人表示他们收到了有关自杀的有害信息,9%的人表示聊天机器人引发了自残或自杀念头。

大多数人使用通用平台,如ChatGPT、Claude或Meta AI(66%),而非心理健康专用程序,如Wysa和Woebot。

心理健康英国组织首席执行官布莱恩·道表示:“人工智能可能很快成为许多人的生命线,但由于通用聊天机器人的使用远多于专为心理健康设计的聊天机器人,我们面临使脆弱人群遭受严重伤害的风险。变化的速度是惊人的,但我们必须以同样快的速度制定安全措施,以确保人工智能支持人们的福祉。如果我们避免过去的错误并开发一种避免伤害的技术,那么人工智能的进步可能成为改变游戏规则的因素,但我们绝不能使情况变得更糟。正如我们在一些有据可查的悲剧案例中所见,在潜在的心理健康危机期间,某人从可靠网站寻求支持与与可能从不可靠来源获取信息甚至鼓励用户采取有害行动的聊天机器人互动之间,存在关键区别。在这些情况下,人工智能可以充当一种准治疗师,寻求用户的认可,但缺乏适当的安全措施。”

当被问及为何以这种方式使用聊天机器人时,约十分之四的人表示是因为易于获取,而近四分之一的人提到在英国国家医疗服务体系(NHS)上等待帮助的时间过长。三分之二的人认为这些平台有益,而27%的人表示他们感到不那么孤独。调查还发现,男性比女性更可能以这种方式使用人工智能聊天机器人。

道先生补充道:“这些数据揭示了人们在多大程度上转向人工智能来帮助管理他们的心理健康,这通常是因为服务资源超负荷。”他表示,心理健康英国组织现在“敦促政策制定者、开发人员和监管机构制定安全标准、伦理监督,并更好地将人工智能工具整合到心理健康系统中,以便人们可以信任他们有安全的地方可以求助。而且我们绝不能忽视良好心理健康护理核心的人际连接。”

这一点至关重要,因为正如这项民意调查所示,人工智能有可能成为为那些传统上在需要时更难寻求帮助的人提供支持的变革性工具。

英国卫生和社会保障部一位发言人表示:“虽然人工智能有潜力改变医疗保健,但重要的是人们要知道人工智能工具并非设计或监管用于提供心理健康建议或治疗。任何在心理健康方面挣扎的人都应通过他们的全科医生、NHS 111或提供安全、保密和专业帮助的慈善机构如Mind或撒马利亚人寻求合格支持。”

【全文结束】

大健康
大健康