每40秒就有人选择结束自己的生命。这已经足够令人心碎,而更令人担忧的是,有迹象表明,每一名因自杀身亡的成年人背后,可能还有超过20人尝试过自杀。这些数字令人震惊。但如果我们能利用技术来帮助呢?
在疫情期间,国际知名大师迪帕克·乔普拉干预了超过5000次自杀企图。但实际上,这并不是他本人亲自操作的。在你担心之前,这并不是一场骗局,而是人工智能(AI)在发挥作用。这虽然有争议,但乔普拉认为,如果我们正确使用AI,它可以帮助我们过上更有目标、更精神化、更连接的生活。
他的基金会开发了一款名为Piwi的心理健康聊天机器人,据称该机器人帮助了许多面临心理健康问题的青少年。《纽约时报》畅销书作者乔普拉在Mamamia的播客《But Are You Happy?》中详细介绍了这一项目。
乔普拉表示,青少年们乐于与这款情感聊天机器人交谈,因为他们觉得自己不会被评判。“我们在5000次自杀意念中进行了干预,此外,AI还与那些不觉得被评判的青少年进行了2000万条短信交流。AI会问他们,‘上次你吃了什么晚餐?’‘你的男朋友回电话了吗?’” 艾丽丝·德莱尼
在澳大利亚,根据澳大利亚卫生与福利研究所的数据,自杀是儿童和青少年的主要死因。研究表明,聊天机器人的匿名性为担心污名化的年轻人提供了一种潜在可接受且更具吸引力的心理健康干预方式。此外,成本降低和可及性的提高也尤其重要,因为在澳大利亚,获得心理健康服务提供者的支持往往非常困难。然而,研究人员并不完全相信AI可以替代人类。
“在心理健康背景下,不当回应或误解用户输入可能导致严重伤害。研究发现,心理健康聊天机器人在处理紧急情况如即时伤害和自杀意念时,提供的回应往往是有限或不适当的,对用户构成严重风险。”南澳大利亚大学的研究人员本杰明·霍夫曼、米歇尔·奥珀特和米凯拉·欧文在其最近的研究中写道。
“另一个影响聊天机器人可接受性的障碍是,客户可能会过度依赖与聊天机器人的互动,从而减少通过其他途径寻求支持的意愿。”
研究人员表示,鉴于相关风险,最好将这项技术视为“一种补充干预或治疗工具,而不是人类心理治疗师的替代品”。乔普拉也同意这一点。他退役了名为Never Alone的聊天机器人,意识到干预工作还是应该交给专业人士,但他认为这是认识到AI对心理健康益处的一个关键步骤。
“刀子可以用来杀人,但在外科医生手中,刀子可以治愈。锤子也可以用来敲打人的头,但在木匠手中,它是一个神奇的工具。”乔普拉的这一观点引人深思。他认为同样的道理也适用于技术,相信技术可以成为追求幸福的重要工具。
“我实际上相信,只要有一个共同的愿景和最大化的讲故事者和人才多样性,我们可以利用AI创造一个更加和平、可持续、健康和快乐的世界。”他说,“我们目前面临的挑战,如气候变化、社会经济不公、慢性疾病、不可持续的生物系统等,都是可以逆转的,而AI有能力告诉我们如何做到这一点。我们只需要有集体的意志。”
尽管有些人对未来的人工智能持谨慎态度,但乔普拉认为它可以增强人与人之间的联系。“我相信你可以利用AI创建全球性的线上线下社区,人们互相服务,参与社区工作,互相倾听、关心彼此。”他说,“这取决于我们的创造力。它不必削弱人与人之间的联系,事实上,它可以增强这种联系。”
我们或许只能拭目以待,看看未来会带来什么。
(全文结束)


