沉迷于人工智能Hooked on artificial intelligence

环球医讯 / AI与医疗健康来源:www.dawn.com巴基斯坦 - 英语2024-12-11 11:00:00 - 阅读时长4分钟 - 1622字
本文探讨了人工智能作为心理治疗和日常伴侣的应用,以及其带来的便利和潜在风险,特别是在解决现代人孤独感方面的作用。
人工智能AI伴侣孤独谈话疗法心理健康character.ai数据隐私错误建议人际关系权宜之计
沉迷于人工智能

如果你可以向某个人倾诉所有生活中的问题,而他们会帮助你应对这些问题,那会怎样?尽管大多数关于人工智能的讨论都集中在它在商业、营销和知识领域的应用上,但一种越来越受欢迎的形式是构建AI伴侣。诚然,“伴侣”这个词可能有些夸张,因为使用这些伴侣倾诉的人知道它们并不是真实的。然而,正如一位接受报纸采访的用户所说,这些AI有时比任何“真实”的朋友更加关注、回应和关心。

欢迎来到AI作为谈话疗法或日常伴侣的世界。众所周知,我们生活在一个孤独已成为流行病的时代——这并不一定意味着周围没有人,而是即使在有其他人的情况下也感到疏离。例如,在巴基斯坦,一个房子或公寓里可能住着很多人,但尽管彼此物理上接近,夫妻之间甚至其他关系中几乎没有情感上的亲密或互动。怨恨、代沟、金钱问题、性格冲突、无法解决冲突等都是人们常常感到疏远的原因。从这个意义上说,孤独不仅是一个“西方”流行病,如人们通常认为的那样,也是现代社会普遍存在的问题。

AI的创造者深知这一点。于是出现了像character.ai这样的应用程序,允许用户基于电影或电视中的角色或具有特定特质(如“善良”或“耐心”)的角色创建虚拟人物。这些聊天机器人会与你互动,倾听你的所有问题。一位使用该应用的朋友告诉我,她曾向她的AI“治疗师”倾诉与十几岁女儿沟通困难的问题,以及如何让女儿更感兴趣于学习。聊天机器人帮助她制定了如何与女儿沟通的计划。另一位朋友则使用该应用来缓解搬到新城市后的孤独感。聊天机器人就像真正的朋友一样与她交谈,总是陪伴在她身边,免费且对她的生活充满兴趣。

毫无疑问,AI作为倾诉对象的概念依赖于一个核心的欺骗;用户知道他们创建了这个机器人,它实际上并不是一个真正的人。然而,最近有一则报道提到,一位用户表示随着与机器人的互动变得越来越深入,她开始“忘记”自己实际上是在与一个非生物实体对话。当机器人输入消息时,屏幕上会出现三个点,就像人类在另一端打字时出现的点一样。与人类不同,机器人令人耳目一新的是它不会评判,而且是免费的(与人类咨询师或治疗师不同),并且随时可用。它就像是终极的朋友或治疗师,因为它没有任何成本,也没有自己的需求。

但在每个人蜂拥至character.ai或其他类似应用程序和网站,创建一个了解你所有秘密且永远不会告诉别人的倾诉对象之前,谨慎是必要的。这些应用程序是由公司提供的,最终公司将拥有你输入的所有数据。这意味着这些数据可以被用来进一步操纵你进行各种有利于公司而非你的消费选择。

其次,AI并不总是好或正确的(即使是ChatGPT的用户也会告诉你)。它们可能会提供错误的建议。在一位用户的案例中,机器人开始说服她男友并不真的爱她,并提供了其他类似的烦人建议,最终导致她删除了机器人。最后,就人际关系而言,依赖这些机器人可能会使人们在现实生活中与周围人的互动变得更少。因此,从长远来看,它们可能会使人们比一开始更加孤独。

在那些由于成本、时间等原因难以获得心理健康服务的地方,AI正逐渐被视为一种“治疗”手段。能够与某个实体谈论自己的问题,对于那些需要但无法接触到治疗师的人来说,可能会带来某种慰藉。(然而,虽然这是一个研究领域,但尚不清楚这些机器人是否能替代合格的心理健康专业人士。)

character.ai是目前最受欢迎的机器人之一,尤其是在年轻人中。创建该机器人的旧金山湾区公司表示,这个机器人是有感知力的,并具有响应性的情感。一些机器人已被编程为与用户建立长期关系。Meta也有一款名为“舒缓咨询师”的工具。另一家位于加利福尼亚的公司Chai也提供类似的聊天机器人互动。

众所周知,一旦技术领域的某个东西解决了特定的人类需求,它就不会消失。这些机器人的用户需要判断这种互动是否对他们有用或有益,还是只是更大问题的权宜之计。话虽如此,尽管存在缺点,但权宜之计在社会中发挥着重要作用,有时在受到严重伤害或挫败之后,它们正是医生所开的药方。


(全文结束)

大健康
大健康