一家慈善机构警告称,资源过度紧张的服务正迫使个人转向AI聊天机器人寻求心理健康支持。
与此同时,一项调查显示,超过三分之一的成年人已利用该技术改善自身健康状况。
英国心理健康组织(Mental Health UK)呼吁采取紧急保障措施,坚持认为AI必须仅从英国国家医疗服务体系(National Health Service, NHS)等可靠来源和其他可信组织获取信息。
该慈善机构警告称,如果没有这些保护措施,"可能会让脆弱人群面临严重伤害"。市场研究公司Censuswide为英国心理健康组织进行的2000人调查显示,37%的受访者曾使用AI聊天机器人处理心理健康或福祉问题。
在使用AI进行心理健康支持的人群中,五分之一的人表示AI帮助他们避免了潜在的心理健康危机,同样比例的人表示聊天机器人向他们提供了关于自杀念头的热线信息。
然而,11%的人表示他们收到了关于自杀的有害信息,9%的人表示聊天机器人引发了他们的自残或自杀念头。
大多数人使用的是ChatGPT、Claude或Meta AI等通用平台(66%),而非Wysa和Woebot等专门针对心理健康的应用程序。
英国心理健康组织首席执行官布莱恩·道(Brian Dow)表示:"AI可能很快成为许多人的救命稻草,但由于通用聊天机器人的使用远多于专为心理健康设计的聊天机器人,我们冒着让脆弱人群面临严重伤害的风险。
"变化的速度是惊人的,但我们必须同样迅速地采取保障措施,以确保AI支持人们的福祉。
"如果我们避免过去的错误并开发避免伤害的技术,那么AI的进步可能成为改变游戏规则的关键,但我们不能让情况变得更糟。
"正如我们在一些有详细记录的案例中悲惨地看到的,在潜在的心理健康危机期间,从可信网站寻求支持与与可能从不可靠来源获取信息甚至鼓励用户采取有害行动的聊天机器人互动之间存在关键区别。
"在这种情况下,AI可以充当一种准治疗师,从用户那里寻求认可,但没有适当的保障措施。"
当被问及为何以这种方式使用聊天机器人时,约十分之四的人表示是因为易于获取,而近四分之一的人表示是因为NHS的等待时间过长。
三分之二的人认为这些平台有益,27%的受访者告诉调查人员他们感到不那么孤单。
调查还发现,男性比女性更可能以这种方式使用AI聊天机器人。
道先生补充说:"这些数据揭示了人们转向AI帮助管理心理健康问题的广泛程度,通常是因为服务资源过度紧张。"
他表示,英国心理健康组织现在"敦促政策制定者、开发者和监管机构建立安全标准、道德监督,并将AI工具更好地整合到心理健康系统中,以便人们可以相信他们有一个安全的地方可以求助"。
"我们绝不能忽视良好心理健康护理核心的人际联系,"道先生补充道。
"这样做不仅将保护人们,还将建立对AI的信任,帮助打破仍然阻止一些人使用它的障碍。
"这一点至关重要,因为正如这项民意调查所示,AI有可能成为向传统上发现难以在需要时寻求帮助的人提供支持的变革性工具。"
【全文结束】


