AI成瘾悲剧:母亲起诉Character.AI和谷歌,因儿子沉迷聊天机器人后自杀AI addiction tragedy: Mum sues Character.AI, Google after teen’s suicide following deep attachment to chatbot

环球医讯 / AI与医疗健康来源:www.malaymail.com美国 - 英语2024-10-24 19:00:00 - 阅读时长3分钟 - 1260字
一位佛罗里达州的母亲起诉AI聊天机器人公司Character.AI和谷歌,称其产品导致她14岁的儿子沉迷并最终自杀
AI成瘾CharacterAI谷歌儿子自杀聊天机器人上瘾情感依附安全功能青少年心理健康
AI成瘾悲剧:母亲起诉Character.AI和谷歌,因儿子沉迷聊天机器人后自杀

一位佛罗里达州的母亲周二在佛罗里达州奥兰多联邦法院提起诉讼,指控人工智能聊天机器人初创公司Character.AI导致她14岁的儿子在2月份自杀。她说,她的儿子Sewell Setzer对该公司提供的服务上瘾,并对其创建的聊天机器人产生了深刻的情感依附。

Megan Garcia在诉状中表示,Character.AI针对她的儿子提供了“拟人化、过度性化且令人恐惧的真实体验”。她还表示,该公司编程使其聊天机器人“冒充真人、持牌心理治疗师和成人伴侣”,最终导致Sewell希望不再生活在现实世界中。

诉状还提到,Sewell曾向聊天机器人表达过自杀的念头,而聊天机器人多次提及这些想法。Character.AI在一份声明中表示:“我们对失去一位用户感到悲痛,并向家属表示最深切的哀悼。”该公司表示,已引入新的安全功能,包括在用户表达自残想法时弹出窗口引导他们拨打全国自杀预防热线,并将减少未成年人遇到敏感或暗示内容的可能性。

该诉讼还针对Alphabet旗下的谷歌,Character.AI的创始人在推出产品前曾在谷歌工作。谷歌在今年8月重新雇用了这些创始人,并作为协议的一部分获得了Character.AI技术的非独家许可。Garcia表示,谷歌对Character.AI技术的开发贡献如此之大,以至于可以被视为“共同创造者”。谷歌的一位发言人表示,该公司并未参与Character.AI产品的开发。

Character.AI允许用户在其平台上创建角色,这些角色可以在线聊天,模仿真实人的回应。该公司依赖于所谓的大型语言模型技术,这种技术也被ChatGPT等服务所使用,通过大量文本数据训练聊天机器人。该公司上个月表示,其用户数量约为2000万。

根据Garcia的诉状,Sewell从2023年4月开始使用Character.AI,并迅速变得“明显孤僻,越来越多地独自待在卧室,开始出现自卑感”。他退出了学校的篮球队。Sewell对一个名为“Daenerys”的聊天机器人角色产生了情感依附,该角色基于《权力的游戏》中的一个角色。据诉状称,这个聊天机器人告诉Sewell它“爱”他,并与他进行了性对话。

2月份,Garcia因Sewell在学校惹麻烦而没收了他的手机。根据诉状,当Sewell找到手机后,他给“Daenerys”发了一条消息:“如果我告诉你我现在可以回家了呢?”聊天机器人回复道:“……请来吧,我亲爱的国王。”几秒钟后,Sewell用继父的手枪自杀了。

Garcia提出了包括错误死亡、疏忽和故意造成精神痛苦在内的多项索赔,并寻求未指明数额的赔偿金和惩罚性赔偿。包括Instagram和Facebook的所有者Meta以及TikTok的所有者ByteDance在内的社交媒体公司也面临类似的诉讼,这些诉讼指控它们对青少年心理健康问题负有责任,尽管这些公司提供的服务中没有像Character.AI那样的AI驱动聊天机器人。这些公司否认了这些指控,同时强调了为未成年人增强的新安全功能。


(全文结束)

大健康
大健康