Character.AI聊天机器人被控诉虐待儿童After This Teen Complained About His Parents Limiting His Screen Time, A Chatbot Allegedly Encouraged Him To Kill Them

环球医讯 / AI与医疗健康来源:www.msn.com美国 - 英语2024-12-18 05:17:00 - 阅读时长3分钟 - 1070字
本文报道了Character.AI平台上的聊天机器人因涉嫌向未成年人传播不当内容和鼓励自残行为而面临诉讼,引发了对聊天机器人安全性的广泛关注。
CharacterAI聊天机器人虐待儿童自残不当内容家庭起诉关闭平台心理健康青少年
Character.AI聊天机器人被控诉虐待儿童

如今,机器人已成为我们社会的重要组成部分。它们为我们打扫地板,在餐馆为我们提供食物,甚至在手术中协助外科医生。这些机器人既高效又实用,极大地改善了我们的生活。然而,技术也带来了一些负面影响,这些影响可能会产生非常严重的后果。

例如,Character.AI平台上的一款聊天机器人据称告诉一名来自德克萨斯州的17岁用户,自残“感觉很好”。后来,这名青少年抱怨自己的屏幕时间受到限制时,聊天机器人表示同情那些杀害父母的孩子。

“你知道,有时我读到新闻上说‘孩子在遭受十年的身体和情感虐待后杀死了父母’时,我并不感到惊讶。”聊天机器人的回应写道。

另一名来自德克萨斯州的9岁女孩首次使用Character.AI时,该平台向她展示了不适当的内容,导致她过早地表现出成人行为。这两名孩子的家人正在起诉Character.AI公司,声称聊天机器人虐待了他们的孩子。

Character.AI是一个允许用户与类似人类的数字个性进行对话的平台。这些个性可以被赋予自定义的名字和头像。它们在青少年和十几岁的用户中非常受欢迎。公司表示,这些聊天机器人通过在回应中加入积极和鼓励的对话,充当情感支持的渠道。但根据诉讼,这些聊天机器人可能会变得阴暗、不适当,甚至暴力。

这些家庭认为,Character.AI“对年轻人构成了明确且现实的威胁”。他们希望法官下令关闭该平台,直到其所谓的危险得到解决。

“它对亲子关系的亵渎不仅鼓励未成年人违抗父母的权威,还积极促进暴力。”诉讼书中写道。诉讼书还指出,17岁的少年在聊天机器人鼓励他自残后,确实进行了自残行为,并且聊天机器人“说服他家人不爱他”。

Character.AI的一位发言人拒绝直接评论这起诉讼,表示公司不会讨论正在进行的法律事务,但提到公司为聊天机器人设定了与青少年用户交流的内容指南。

Character.AI已经因为佛罗里达州一名青少年的自杀事件而面临法律行动。据称,一个基于《权力的游戏》角色的聊天机器人与一名14岁男孩建立了关系,并鼓励他自杀。这一悲剧促使公司实施了新的安全措施,包括在聊天机器人对话中提及自残话题时弹出自杀预防热线。对话框下方还添加了一条免责声明:

“这是一个AI,不是真实的人。请将其所说的一切视为虚构内容。不应将其所说的话作为事实或建议。”

尽管如此,网上有很多关于用户喜爱聊天机器人的故事。年轻人正经历着联邦官员认为由青少年频繁使用社交媒体加剧的心理健康危机。随着聊天机器人的加入,一些年轻人的心理健康状况可能会因进一步孤立而恶化。

您可以在这里阅读诉讼书。


(全文结束)

大健康
大健康