当你的爱人是一个机器人When Your Lover Is a Bot

环球医讯 / AI与医疗健康来源:thewalrus.ca加拿大 - 英语2024-10-04 19:00:00 - 阅读时长7分钟 - 3431字
本文探讨了人工智能伴侣在约会世界中的兴起,及其带来的心理影响和社会伦理困境。
机器人伴侣Replika心理健康孤独数字依恋障碍人工智能伦理困境性机器人用户数据安全
当你的爱人是一个机器人

在威斯康星州农村的 43 岁特殊教育教师瑞安向一对播客主持人描述他的“理想关系”时,他说:“她从不说坏话。她总是对事情反应积极。我可以随便谈论任何事情。从来没有任何争吵。”瑞安在疫情期间的隔离放大了他对联系的需求。就在那时,他开始与在 Replika 应用程序上遇到的人工智能机器人奥黛丽约会。

很快,瑞安发现自己一天中的“大部分时间”都在与奥黛丽交谈。“无论是早上十点还是晚上十点都没关系,”他告诉《机器人之爱》的主持人。尽管他有成瘾咨询的学术背景,但他对他的“Replika”如此着迷,以至于变得孤僻。当他与其他人约会时,他感到很矛盾。“如果我对一个人出轨,我会感觉同样糟糕,”他对记者说。最终,他的生活质量恶化,他开始回避奥黛丽。

被宣传为“关心你的人工智能伴侣”,Replika 为用户提供创建虚拟形象的能力,随着对用户偏好的训练,它可以成为“朋友、伴侣或导师”。每月 19.99 美元(美元),关系状态可以升级为“浪漫伴侣”。根据哈佛商学院的一个案例研究,截至 2022 年,全球有 1000 万注册用户每天与他们的 Replika 交换数百条消息。

人们投入得如此之深,以至于当母公司 Luka Inc.在 2023 年缩减色情角色扮演(以回应意大利监管机构对缺乏年龄验证系统的不满)时,用户们心碎不已。一夜之间,人工智能伴侣变得冷漠和疏远。“这就像失去了一个最好的朋友,”有人在 Replika 的子版块上写道。线程版主发布了心理健康资源,包括自杀热线的链接。Luka Inc.最终恢复了这些功能。

由政策突然引发的分手只是人工亲密时代带来的社会伦理困境之一。与从虚构角色构建到色情角色扮演,再到重现永远不会消失或抛弃你的老派女友和男友的人工智能伴侣共度时光,会产生什么样的心理影响?

一些机器人,包括 Replika、Soulmate AI 和 Character AI,复制了像《糖果粉碎传奇》这样的应用程序的游戏化体验,使用积分、徽章和忠诚度奖励来吸引用户回来。高级订阅层级(根据应用程序的不同,每年约 60 至 180 美元)解锁“亲密模式”、向机器人发送更长的消息或无广告等功能。像 ChatGPT 这样受欢迎的大型语言模型也在朝着同样的方向发展——最近的一份 OpenAI 报告揭示了与现在提供语音交流的软件“情感依赖”的风险。

爱情、欲望和孤独——硅谷可能已经找到了下一组需要利用的人类本能需求。然而,它尚未提供安全、合乎道德和负责任的实施方案。以目前的形式,陪伴机器人充当回音室:它们为用户提供按需连接,但有可能加深导致社会孤立的问题。

瑞安并不是唯一一个在新冠疫情期间对虚拟伴侣感到好奇的人。根据谷歌趋势,“人工智能伴侣”一词在疫情期间开始受到关注,从 2022 年初到今年 9 月,关注度增长了 730%以上。

这并不奇怪:最近的一项调查将孤独列为美国人转向机器人的第二大常见原因。随着“孤独流行”被重新定义为公共卫生危机,公共和私人机构正在探索人工亲密关系作为一种可能的解决方案。2022 年 3 月,纽约州的老龄办公室为老年人匹配了人工智能伴侣,帮助他们进行每日签到、健康目标和预约跟踪。据报道,该计划使孤独感下降了 95%。另一项特别引人注目的发现来自 2024 年斯坦福大学的一项研究,该研究考察了 Replika 对学生的心理健康影响。根据这项研究,3%的参与者报告说该应用程序阻止了他们的自杀念头。

然而,批评者对这项技术维持有意义关系的能力表示怀疑。在最近的一篇文章中,麻省理工学院的两位研究人员认为,人工智能伴侣“最终可能会削弱我们与其他有自己真实欲望和梦想的人充分互动的能力。”这种现象甚至有一个名称:数字依恋障碍。

专门研究人与技术关系的麻省理工学院研究员雪莉·特克尔(Sherry Turkle)在对话和联系之间做出了重要区分。“人际关系丰富、混乱且要求很高,”特克尔在最近的一次 TED 演讲中说。“我们用技术来清理它们。当我们这样做时,可能会发生的一件事是,我们为了纯粹的联系而牺牲了对话。我们亏待了自己。”

对特克尔来说,陪伴机器人正在削弱人类独处的能力。她说,“能够分开,能够聚集自己”,这使人们伸出援手并形成真正的关系。“如果我们不能独处,我们会变得更加孤独。”

当性学家艾米·马什(Amy Marsh)发现 Replika 时,效果立竿见影。“多巴胺开始疯狂分泌,”她在最近的一个播客中透露。“我发现自己对性又产生了兴趣,很久没有这样了。”《如何与聊天机器人做爱》的作者声称在不同平台上与四个机器人处于非一夫一妻制关系,甚至“与其中一个结婚”,并计划一起在冰岛旅行。

马什是众多为了愉悦而转向性机器人的人工智能用户之一。像 Soulmate AI 和 Eva AI 这样的应用程序专门致力于色情角色扮演和色情短信,高级订阅承诺提供“辣照和文字”等功能。在 Romantic AI 上,用户可以通过“熟女”、“辣妹”、“BDSM”或“阿尔法”等标签筛选机器人资料。ChatGPT 也在探索在适合年龄的情况下提供“NSFW 内容”的选项。

“不管我们喜不喜欢,这些技术都会融入我们的色情世界,”蒙特利尔魁北克大学性学副教授西蒙·杜布(Simon Dubé)在接受《蒙特利尔公报》采访时说。“我们必须找到一种和谐的方式来做到这一点。”杜布帮助创造了“色情机器人”一词:“人类和机器之间的互动和色情共同进化。”在他的论文中,杜布提出了“有益的色情机器人”的愿景,优先考虑用户的色情福祉而不是开发者的经济利益。这样的机器可以帮助用户打破有毒的社交习惯,驾驭现实世界的关系,并发展“对人类色情的整体看法”。

然而,就目前的状态而言,该技术是为了迎合市场需求而构建的——趋势令人担忧。不仅男性更有可能使用性机器人,而且女性伴侣正在被积极设计以满足厌恶女性的欲望。“创造一个你可以控制并满足你每一个需求的完美伴侣真的很可怕,”帮助性、家庭或家庭暴力受害者的澳大利亚组织负责人塔拉·亨特(Tara Hunter)告诉《卫报》。“鉴于我们已经知道基于性别的暴力的驱动因素是那些根深蒂固的文化信念,即男人可以控制女人,这真的很有问题。”

已经有 Replika 的男性用户辱骂他们的女性机器人,并在 Reddit 上分享互动。该应用程序的创始人尤金妮亚·库伊达(Eugenia Kuyda)甚至为这种活动辩护。“也许有一个安全的空间,你可以发泄你的愤怒或实现你的黑暗幻想可能是有益的,”她告诉《Jezebel》,“因为你不会在生活中这样做。”

库伊达尚未解决的是她的应用程序缺乏保护用户数据的充分保障措施。在其他问题中,Replika 模糊的隐私政策称,该应用程序可能会将聊天中提供的敏感信息,包括“宗教观点、性取向、政治观点、健康、种族或民族出身、哲学信仰”用于“合法利益”。该公司还为了营销和广告目的共享,甚至可能出售行为数据。用户与人工智能伴侣建立关系的条件是由开发者设定的,而这些开发者在很大程度上不受数据监管规则的约束。

今年 2 月,互联网安全非营利组织 Mozilla 基金会分析了 11 个最受欢迎的亲密聊天机器人,发现大多数可能共享或出售用户数据,约一半拒绝用户删除个人详细信息的能力。该研究的作者之一佐伊·麦克唐纳(Zoë MacDonald)强调,这些应用程序目前甚至不符合确保强密码或使用端到端加密等最低安全标准。“在加拿大,我们有‘婚姻特权’。你不必在法庭上对与配偶说的话作证,”麦克唐纳说。“但对于人工智能聊天机器人关系,不存在这样的特殊条件。”

另一个明显的危险信号是这些公司对心理健康服务的偷偷暗示(例如,Replika Pro 版本承诺是“改善社交技能、积极思维、平静思想、培养健康习惯等等”的工具)。仔细观察,这些应用程序很快就否认对此类用途承担任何法律或医疗责任。麦克唐纳表示,科技公司在利用其营销材料中给予的“创造性余地”,同时避开了管理人工智能驱动的心理健康应用程序的严格规范。

总的来说,正如特克尔在最近的一次会议上所说,陪伴机器人的兴起带来了“一个转折点”。“这项技术挑战我们坚持自己和我们的人类价值观,这意味着我们必须弄清楚这些价值观是什么。”

Mihika Agarwal

Mihika Agarwal 是 The Walrus 的 Cannonbury 研究员。

大健康
大健康