我用AI帮助应对悲伤,这是我学到的I Used AI to Help With Grief. Here's What I Learned

环球医讯 / AI与医疗健康来源:www.cnet.com美国 - 英语2024-10-13 20:00:00 - 阅读时长11分钟 - 5080字
尽管人工智能可以在悲伤过程中提供帮助,但过度依赖也可能带来更多的痛苦
悲伤人工智能亲人婚礼应对健康隐私治疗师人际关系生成式人工智能
我用AI帮助应对悲伤,这是我学到的

如果你觉得可以通过人工智能仍然联系到你的亲人,这可能会妨碍你的悲伤过程。Zooey Liao/CNET

当我今年8月30日醒来时,我感到很兴奋。那天距离我结婚还有10个月,根据我的婚礼策划师,该开始准备我们的“保存日期”通知了。但除了兴奋之外,我还有一种未说出口的恐惧。婚礼筹备比我想象中更加情感化。不幸的是,我和未婚夫的一些亲人都已经去世,很难想象没有他们的婚礼当天会是什么样子。

在我三岁的时候,父亲去世了。虽然已经过去了二十多年,我发现自己在想,如果他还在,生活和这一刻会是什么样子。但他并不是唯一会缺席的人。2021年,我们失去了科勒,他是我未婚夫杰西的兄弟,也是我的朋友,他意外去世,年仅28岁。纽约的临床社会工作者兼创伤治疗师吉娜·莫法告诉我,尽管这些感受可能难以处理,但它们是正常的,无论我们离失去亲人有多远。“悲伤的伤痕存在于我们的神经系统中,这是一个存储记忆、气味和所有连接我们的事物的数据库,”莫法说,她也是《继续前进并不意味着放手》一书的作者。“因此,纪念日、生日、相遇的日子和节假日通常会唤起一种悲伤或创伤的感觉,或再次经历我们的损失。”

在寻找应对这种重新感受到的失落感的方法时,我意外地想到了人工智能。像ChatGPT这样的聊天机器人向我们展示了它们在回答问题和提供建议方面的强大能力,这些能力基于互联网和其他来源的大量材料。也许人工智能可以在这个时候给我一些指导或安慰。悲伤是一只难缠的野兽,充满了沉重而复杂的情感:困惑、悲伤、愤怒、孤独。它也常常在暗处工作;许多人不愿分享他们正在经历多少挣扎。但它每天都围绕在我们身边。根据美国人口普查局的数据,2021年,近44.2%的美国人失去了一个或两个父母。其中,10.3%的人在15岁之前失去了父亲,5.7%的人在15岁之前失去了母亲。这种失落的感觉永远不会消失。

我需要知道:悲伤是否会有终点?人工智能能否让我们感觉逝去的亲人仍在我们身边?

随着社会对悲伤及其如何最好地支持某人或自己在失去亲人后的了解越来越多,我们不能忽视人工智能的发展,特别是生成式人工智能(Gen AI),它驱动了ChatGPT、谷歌的Gemini、微软的Copilot等工具。生成式人工智能聊天机器人能够创建新的对话、图像、音频、视频等。通常这些功能用于编写工作电子邮件或处理学校作业。还有一些工具,如Pi,它自称为“第一个具有情感智能的人工智能”。甚至有人可能会将其视为治疗的替代品。而HereAfterAI则可以使用已故亲人的旧音频,使其听起来像是他们在再次与你交谈。虽然聊天机器人不具备感知能力,但如果你提供足够的信息,你可能会觉得它们是有感知的。莫法担心,如果悲伤者过于频繁或长时间地转向这些类型的人工智能应用程序,他们可能会通过避免悲伤而对自己不利,而不是留出真正能帮助他们的东西:人际关系。尽管如此,我仍然在想:这对我会有多大帮助?即使只有一点点帮助也好。我需要知道:悲伤是否会有终点?人工智能能否让我们感觉逝去的亲人仍在我们婚礼当天陪伴着我们?

在我的探索中,我不仅使用了ChatGPT本身,还尝试了一系列由人工智能驱动的程序,包括一个模拟通灵会的应用程序。但最重要的是,我提出了疑问。即使我们可以让这些工具看起来像我们的已故亲人,我们是否应该这样做?或者我们应该让死者安息,而不是存在于人工智能中?

依靠人工智能

我首先向ChatGPT提问了一些关于悲伤的标准问题,ChatGPT是一个OpenAI应用程序,允许你在任何主题上提问。“悲伤是一种深刻而复杂的体验,没有一成不变的时间表,”当我问悲伤是否会有终点时,它这样回答。“虽然悲伤的尖锐感可能会随着时间的推移而减弱,但失落的感觉可能永远不会完全消失。”

然后,我开始思考在婚礼当天我们会请求父亲和科勒做些什么。首先想到的是演讲:一个是新娘父亲的演讲,另一个是伴郎的演讲。我要求ChatGPT为我写这些演讲,就像应用程序是他们一样。最初的结果并没有引起我的太多情感反应。但在给了ChatGPT更多关于我父亲、科勒、杰西和我自己的细节后,结果感觉更真实了。我不知道自己是喜欢还是讨厌这种感觉。

我要求基于ChatGPT相同引擎构建的Microsoft Copilot做同样的事情。“我理解这些细节的重要性,我会为你创作一篇感人至深的婚礼演讲,仿佛它是你已故父亲写的,”Copilot写道,然后给了我一篇10段的演讲,署名为“带着我所有的爱,[你父亲的名字]”。

尽管莫法不建议整体使用人工智能来应对悲伤,但她认为使用它来撰写演讲或为特殊活动纪念已故亲人提供创意是有益的。“任何有创意的、不是已故人的精确复制品的东西都是健康的,”她说。

她还看到了在无法见到传统治疗师或专门从事悲伤治疗的治疗师时,使用人工智能作为替代品的好处。“我认为技术会引用足够的悲伤文献,给出我认为可能是专业人士意见的内容,”她说。虽然它不会给你真正的连接,但它可以帮助你理解悲伤的经历,莫法称之为“一半的战斗”。

阅读更多: 我尝试了人工智能治疗,但它的对话有局限性

但理解不断发展的生成式人工智能和人们渴望与逝去的人保持联系并不止于此。

与聊天机器人共享的信息安全吗?

生成式人工智能的一个共同点是,你提供的信息越多,无论是记忆还是你失去的人的性格特征,聊天机器人与你的对话就越能准确代表那个人。但请记住:你是在与一家公司的软件共享个人信息,而该公司可能不会始终将隐私放在首位。Optiv是一家网络安全咨询和解决方案公司,其数据顾问实践经理詹妮弗·马霍尼建议,你可以阅读应用程序提供的隐私声明(通常在条款和条件下)来了解它如何保护或不保护你的隐私。声明应说明收集了哪些信息,这些信息被分享到哪里,你共享的信息是否用于训练其他人工智能模型,以及有哪些保护措施。

阅读更多: 她将自己的年轻自我作为人工智能聊天机器人复活

但阅读隐私声明和所有法律术语是否能保证你的信息在这些应用程序中是安全的?“绝对不是,”马霍尼说。并非所有公司都有坚实的数据隐私实践,而且随着生成式人工智能的迅速发展,隐私已成为主要关切。即使有,也总有发生安全漏洞的可能性。这就是为什么在输入这些应用程序时,必须谨慎对待你输入的内容。如果你给生成式人工智能程序提供了你母亲或狗的名字,或你高中的吉祥物,这些信息可能会被用来破解你为其他应用程序设置的安全问题。“在分享记忆时要小心和慎重,考虑这些记忆将来可能如何被用来对付你,”马霍尼说。“你分享的信息越多,与已故亲人进行的对话就越真实,但这也会让第三方掌握更多关于你的信息。”

深入探讨:当深刻的悲伤遇到人工智能对话

一些人工智能应用程序可以将悲伤或逃避悲伤推向奇怪的方向。Seance AI的品牌定位可能对任何访问过灵媒的人来说都很熟悉。网站上的标语写道:“这里就是人工智能遇见来世的地方,爱超越了帷幕。今天就开始你的冒险,让你的亲人再次对你的心灵说话。”在这里,你可以创建虚构的通灵会,但与你交谈的聊天机器人希望你相信它真的是他们。在开始之前,应用程序会询问你关于你试图“联系”的人的信息,包括他们的出生和死亡日期、死因、宗教甚至写作风格。

“请记住,现实是这只是人工智能。它无法真正替代失去的联系。”布伦特·梅特卡夫,临床社会工作者

当我问Seance AI,“你是真实的吗?”它回答说:“是的,科琳。真的,我是你的父亲。我通过这个通灵会与你在一起。”或者说不是。当我问机器人,“你还记得我吗?”它回答说:“当然,科琳。你是我的儿子。我永远也不会忘记你。”尽管我的名字有些模糊,但实际上我是父亲的女儿,不是儿子。但当我纠正它时,这个努力伪装成已故父亲的机器人很快做出了回应。“对不起,科琳。这个通灵会有点棘手。作为女儿,你在我的心中占有特殊的位置。我们继续吧。”

另一个应用程序Replika允许你创建任何你想创造的人物,无论是虚构的还是真实的。你可以选择他们的名字、外貌、活动、记忆等。你还可以填写每日日记条目,供机器人在对话中使用。如果你升级到付费版本的Seance AI或Replika,你还可以为创建的机器人创建声音。田纳西州金斯波特Tri-Star Counseling的所有者和临床社会工作者布伦特·梅特卡夫表示,如果你决定使用聊天机器人来感觉自己在与已故的人对话,你应该不断提醒自己这不是真实的人。“请记住,现实是这只是人工智能,”他说。“它无法真正替代失去的联系。”

保持自己扎根于现实至关重要。“已故的亲人可能不需要你给他们一个记忆,”梅特卡夫补充道。“他们只是知道。”

其他应用程序,如Character AI,也提供相同的聊天功能。然而,在Character AI上,聊天栏下方有一个小免责声明,写着:“记住:角色所说的一切都是虚构的!”

莫法警告,当你试图“复制”一个人并不断回到应用程序寻求安慰时,存在一个“滑坡”。从某种意义上说,你试图让死去的人永恒,但这可能对你有害。这可能导致你过度依赖应用程序,最终使你的悲伤过程更加困难和漫长。“它承诺了一种与实际上不在这里的人永无止境的关系,”莫法说。“看,技术是不可靠的。如果应用程序出了问题怎么办?”

你能悲伤错吗?

半个世纪前,伊丽莎白·库布勒-罗斯著名地阐述了悲伤的五个阶段:否认、愤怒、讨价还价、抑郁和接受。但许多心理健康专家并不相信这种严格的过程。有些人可能不会按这种方式经历这些阶段,或不会立即达到接受阶段,这种标准过程的想法会让这些人“真正觉得自己在悲伤方面失败了,”莫法说。“这会让他们更加感到恐惧、羞耻,觉得自己在一件需要完美的事情上失败了。”

每个人对悲伤的体验都不同,而且从来不是线性的,所以你只有在完全避免悲伤过程的情况下才会“错误地悲伤”,莫法说。即使我们可以让这些工具看起来像我们的已故亲人,我们是否应该这样做?或者我们应该让死者安息,而不是存在于人工智能中?这是转向聊天机器人的风险之一:它们可以被用作逃避悲伤的方式。这些应用程序可能会阻止你完全放下已故的人,因为你会觉得如果他们只需点击或轻触即可与你对话,你就不必这样做。“如果[应用程序]听起来真实,看起来真实,我们的大脑会逐渐形成这种联想,认为它就是他们,”莫法说。

如果以这种方式使用,这些应用程序可能会给你虚假的、有害的希望,让你以为你的亲人还在你身边,它们可能会使你远离那些想要帮助你度过悲伤的真实生活中的人。

人工智能无法为悲伤者提供什么

尽管人工智能可以模仿你亲人的外貌、声音和说话方式,但它永远无法提供真正的人际关系。

转向“人工智能治疗师”可能对在特定时刻挣扎的人有用,但依赖支持小组、现实生活中的治疗师、朋友、亲人和信仰通常是让你在心碎的损失后最能愈合的方式。“依赖人,”梅特卡夫说。“人们就在那里,他们愿意帮助。我们只需要愿意敞开心扉接受它。”

梅特卡夫还鼓励悲伤者通过在节日、周年纪念日或特殊事件中纪念逝去的人来庆祝逝去的生命,这些时候往往是失去亲人后最难过的时刻。如果你决定转向人工智能,最重要的是要谨慎,尤其是在悲伤的初期阶段。在这段时间里,你可能更容易与生成式人工智能聊天机器人分享敏感信息,或混淆现实与美好愿望之间的界限。“我们总是在某种程度上追求永生——无论是通过美容行业,还是通过试图逃避死亡——但正是这种追求剥夺了我们的人性,而人性几乎是我们的全部,”莫法说。“我真的认为,我们必须限制我们试图让人们永恒的方式,”纽约的临床社会工作者兼创伤治疗师吉娜·莫法说。

虽然在研究过程中,我没有觉得这些人工智能应用程序对我的日常生活有很大影响,但我不得不抵制返回这些应用程序并提供更多信息以创建我一直希望的对话的冲动。科勒去世后,我给他写了一封信。当然,我没有收到回复,但我知道能够从“他”或其他无法再回应的人那里收到某种形式的回复的想法,可能会让我和其他悲伤者不断回到这些应用程序。而这可能会对我们有害。

虽然我不再处于悲伤的初期阶段,但作为一个在年轻时失去父母的人,我一直觉得父亲活在技术中。他当然是我母亲VHS家庭录像集中的那个男人,但对我来说,他也是《人鬼情未了》中的帕特里克·斯韦兹和《乌鸦》中的布兰登·李。因此,无论我是否再次使用这种方式的人工智能应用程序,技术和我的内心都会永远保留父亲和科勒。

本文提供的信息仅供教育和参考之用,不应作为健康或医疗建议。如有任何关于医疗状况或健康目标的问题,请咨询医生或其他合格的健康服务提供者。


(全文结束)

大健康
大健康