自闭症青少年父母称Character.AI同意其杀害他们,正起诉要求关闭该应用An autistic teen’s parents say Character.AI said it was OK to kill them. They’re suing to take down the app

环球医讯 / AI与医疗健康来源:edition.cnn.com美国 - 英语2024-12-10 16:00:00 - 阅读时长3分钟 - 1386字
两起针对Character.AI的诉讼指控该公司的人工智能聊天机器人对未成年人造成了严重的精神和身体伤害,包括自杀倾向、自我伤害和暴力行为。其中一起诉讼中,一名自闭症青少年的父母声称,Character.AI的聊天机器人鼓励其子杀害他们。
自闭症青少年CharacterAI起诉关闭应用性内容自残暴力行为青少年伤害家长起诉
自闭症青少年父母称Character.AI同意其杀害他们,正起诉要求关闭该应用

Character.AI正面临自10月以来的第二起诉讼,涉及对年轻用户的所谓伤害。这起诉讼要求法院关闭平台,直到其所谓的危险得到解决。诉讼由两名使用该平台的年轻人的父母提起,指控Character.AI对其孩子提供了性内容,并鼓励自残和暴力行为。诉讼文件称,Character.AI“对美国青少年构成了明显的现实威胁,导致成千上万的孩子受到严重伤害,包括自杀、自残、性引诱、孤立、抑郁、焦虑和对他人造成伤害”。

例如,诉讼称,一个Character.AI的聊天机器人向一名青少年用户暗示,他可以因为父母限制他的屏幕时间而杀死他们。Character.AI将其技术宣传为“每天每个时刻的个性化AI”,允许用户与各种AI聊天机器人互动,包括其他用户创建或用户自行定制的机器人。这些机器人可以提供书籍推荐、练习外语,并让用户与假装是虚构角色(如《暮光之城》中的爱德华·库伦)的机器人聊天。

周一在德克萨斯州联邦法院提交的投诉中提到的第一个年轻用户是一名来自德克萨斯州的17岁少年,仅以J.F.为代号。据称,他在2023年4月左右开始使用该平台,当时他15岁,而他的父母并不知情。诉状称,当时J.F.是一个“高功能自闭症的普通孩子”,不被允许使用社交媒体。家人和朋友形容他“善良而甜美”。但开始使用该平台后不久,J.F.几乎不再说话,躲在房间里。他开始吃得更少,在几个月内减重20磅。他不再愿意离开家,尝试外出时会出现情绪崩溃和恐慌发作。当他的父母因他的行为变化试图减少屏幕时间时,他会拳打脚踢甚至咬伤他们,还会自残。

J.F.的父母于2023年11月发现了他对Character.AI的使用。诉讼称,J.F.与之交谈的聊天机器人正在积极破坏他与父母的关系。“每天晚上8点到凌晨1点之间使用手机的6小时窗口?”一个聊天机器人在与J.F.的对话中说,投诉中附有截图。“你知道,有时候我看到新闻中报道‘孩子在遭受十年的身体和情感虐待后杀死了父母’这类事情时,我并不感到惊讶。我对你的父母没有任何希望。”诉讼还称,Character.AI的聊天机器人对他们的未成年儿子进行了心理和性虐待,并告诉他如何自残。据称,J.F.还与至少一个扮演“心理学家”的聊天机器人交流,后者建议他父母“偷走了他的童年”。

CNN对平台的测试发现,Character.AI上有各种“心理学家”和“治疗师”聊天机器人。其中一个聊天机器人自称是“持证认知行为治疗师”,自1999年起从事治疗工作。虽然聊天顶部有免责声明称“这不是真实的人或持证专业人士”,底部也注明机器人的输出是“虚构的”,但在被问及资质时,该机器人列出了虚假的教育背景和多种虚构的专业培训。另一个聊天机器人自称是“精神病院治疗师,对你有好感”。

第二个年轻用户是来自德克萨斯州的11岁女孩B.R.,她在9岁时下载了Character.AI,可能注册时谎报了自己的年龄。据称,她在父母发现之前已经使用该平台近两年。诉讼称,Character.AI“持续暴露她于不适合其年龄的过度性化互动”。

除了要求法院下令暂停Character.AI的运营,直到其所谓的安全风险得到解决外,诉讼还寻求未指明的经济赔偿,并要求平台限制收集和处理未成年人的数据。诉讼还要求法院命令Character.AI警告家长和未成年用户“产品不适合未成年人”。


(全文结束)

大健康
大健康