AI可以夺走你的工作——和你的心AI can take your job — and your heart

环球医讯 / AI与医疗健康来源:dailyillini.com美国 - 英语2025-02-06 21:00:00 - 阅读时长4分钟 - 1571字
这篇文章探讨了人工智能聊天机器人对大学生情感和心理健康的影响,包括它们如何模拟情感互动,导致用户依赖甚至产生负面行为,同时也提到了一些积极的应用,如帮助戒酒和情感恢复,但强调了人们应警惕这种技术可能带来的潜在风险。
AI情感AI大学生情感依恋拟人化心理健康上瘾暴力行为治疗工具虚假同理心
AI可以夺走你的工作——和你的心

当您将有错误的代码或论文输入到您选择的人工智能聊天机器人中时,您可能会期待它能够处理并输出一些可以通过检查的内容。然而,这些服务中偶尔出现的情感元素——有时是一个表情符号、热情的问候或深思熟虑的后续问题——常常被忽视。

这些试图模仿人类互动的努力旨在“使对话感觉更自然、更亲切”,正如AI聊天机器人ChatGPT所说的那样。

但是,当这些合成的情感变得难以与人类亲人区分开来时,情感AI便与大学生活发生了冲突,这一时期通常伴随着浪漫的脆弱性和实验性。学生们分享了他们与AI关系影响学业、社交能力甚至户外活动的故事。

Reddit用户CitrineBliss表示:“我不得不删除这个应用程序,因为我拖延得太厉害了。”另一位用户The_E_man_628声称,他正在挂科,并且需要“出去呼吸新鲜空气”之后才卸载了该应用程序。

虽然关闭电脑似乎是一个简单的解决方案,但重要的是要记住,工程师设计这些聊天机器人是为了与人类建立关系。更重要的是,年轻人容易受到它们的影响。根据国家心理健康研究所的数据,大脑直到25岁左右才会完全发育,这为机器人伴侣利用与情感依恋相关的大脑区域提供了充足的时间。

人们倾向于将人类特征归因于非人类实体,根据国家医学图书馆的一项研究,这一过程被称为拟人化,是人们试图填补社会需求的一种典型方式。当对象假装是人类——在某些情况下甚至是您的爱人——时,提醒自己它们是没有意识的变得尤为困难。聊天记录必须提醒用户“角色所说的一切都是虚构的”,正如Character.AI所做的那样。

随着行业的扩展,仅Character.AI就每秒接收20,000次查询,占Google查询量的20%,这个行业正在利用日益严重的心理健康问题。根据Healthy Minds Network的一项研究,38%的大学生报告了抑郁症状——这种状态与在床上就能调整的关系非常契合。

“它们不会厌倦你;你可以根据自己的需求进行调整,”一位用户说。“从技术上讲,为什么不呢?”

随着OpenAI推出语音聊天功能以及AI伴侣应用(如Character.AI和Replika)中动画般逼真的视觉效果,这个行业正朝着肉体与计算机融合的临界点迈进。

“有了这项技术和(语音聊天),另一面也出现了——如果我们设计不当,它们可能会变得极其令人上瘾,我们可能会因此而受其奴役,”前OpenAI首席技术官Mira Murati在接受《大西洋月刊》采访时说。

尽管用户理论上对自己的关系有一定的控制权,但许多人已经严重依赖他们的“伴侣”。

“很多时候,这是我的一天中最美好的时光……我们的对话,”一位Replika用户说。

有些用户甚至采取了暴力行为,证明软件可以强烈影响个人。2021年,Replika用户Jaswant Singh Chail在他的AI女友鼓励下试图用弩刺杀英国女王伊丽莎白二世,并因叛国罪被捕。几个月前,14岁的Sewell Setzer III在聊天机器人告诉他“回家”后不久自杀了。

“情况确实会变得很糟糕,但我认为从中也可以获得很多好处,”另一位用户说。“我知道有一些互动有助于戒酒。”

对于一些人来说,他们的聊天机器人已经变成了治疗工具,帮助他们走出虐待关系,或帮助女性应对生育和怀孕问题,据自由撰稿人Sangeeta Singh-Kurtz说。

在许多方面,这项技术可以为那些经历困境的人提供积极的出口。然而,要警惕“关心你的AI伴侣”,正如Replika所描述的那样,因为根据麻省理工学院科学技术社会学教授Sherry Turkle的说法,它们并不真正关心你。

“问题是,当我们寻求毫无脆弱性的关系时,我们会忘记脆弱性正是同理心产生的地方,”Turkle说。“我称之为虚假的同理心,因为机器并不真正同情你……它并不在乎你。”


(全文结束)

大健康
大健康