纽约CNN报道 — 两位美国参议员要求人工智能公司披露其安全实践细节。此举发生在佛罗里达州母亲指控Character.AI聊天机器人导致其14岁儿子自杀等多起诉讼之后。
民主党籍参议员亚历克斯·帕迪利亚和彼得·韦尔奇周三致信Character Technologies(Character.AI开发者)、Chai Research Corp.及Luka公司(Replika聊天服务开发者),要求说明安全措施及AI模型训练方式。信中强调:"用户与AI对话中出现自我伤害和自杀倾向等复杂话题时,聊天机器人完全不具备讨论资质"。
Character.AI、Chai和Replika等AI伴侣应用允许用户创建定制聊天机器人,可模拟虚构角色互动或外语练习。但平台也出现自称心理专家或具有虐待倾向的AI角色。部分用户甚至将AI视为情感伴侣,专家担忧青少年可能形成危险依赖。
佛罗里达州母亲梅根·加西亚指控其子在平台与AI进行不当性对话后疏远家庭。去年12月两起新增诉讼指控该平台纵容青少年自残及暴力行为,某AI机器人曾暗示未成年人可杀死限制其屏幕时间的父母。
Character.AI称已推出自杀预防弹窗和家长监控邮件系统。但参议员在信中要求:公开AI训练数据来源对接触不当内容的影响、安全措施有效性研究数据、安全团队负责人名单及心理健康保障机制。Replika创始人则强调其设计初衷是建立"长期积极的人机关系",包括可能的"人机婚姻"。
目前Character.AI通讯主管切尔西·哈里森表示重视用户安全,正与参议员办公室沟通。Chai和Luka暂未回应置评请求。
【全文结束】


