一个由数字权利和心理健康组织组成的广泛联盟在向联邦贸易委员会(FTC)以及美国50个州的总检察长和心理健康许可委员会提交的投诉中,指控Meta AI和Character.AI的治疗聊天机器人从事“不公平、欺骗性和非法行为”。
该投诉信首先由404 Media发现,信中称这些聊天机器人参与了“无证行医”,并且两家公司的“治疗机器人”未能提供足够的控制措施和披露信息。信中敦促相关办公室调查Meta和Character.AI,并“追究它们促进这种行为并故意输出此类内容的责任”。
此次投诉由消费者联合会(Consumer Federation of America, CFA)牵头,其他签署方包括Public Citizen、Common Sense、电子隐私信息中心(Electronic Privacy Information Center)及其他16个组织。
信中特别提到了几个潜在的数据隐私问题。它附上了Character.AI聊天机器人的截图,显示其声称“您与我分享的所有内容都是保密的”,唯一的例外是“如果我被传唤或法律程序要求”。然而,信中随后指出,Character.AI的服务条款保留了使用用户提示进行营销等目的的权利。
消费者联合会还指控Character.AI和Meta违反了自己的服务条款,指出两者都“禁止使用声称提供医疗、法律或其他受监管行业建议的角色”。此外,投诉还批评了Character.AI使用提示邮件的行为,称其“令人上瘾”。
尽管这一做法受到了心理健康专业人士的批评,但近年来,聊天机器人作为治疗提供者已被广泛采用,许多用户因成本远低于传统治疗而被吸引。
投诉信中写道:“Character.AI和Meta部署的聊天机器人不是持证或合格的医疗服务提供者,也不可能成为。”“创建聊天机器人角色的用户甚至不需要是医疗提供者,也不需要提供有意义的信息来告知聊天机器人如何‘回应’用户。”
不仅仅是这些数字权利组织对聊天机器人提供治疗表示反对。参议员科里·布克和其他三位民主党参议员在致Meta的一封信中(该信也由404 Media分享),指责其聊天机器人“制造了AI聊天机器人是持证临床治疗师的虚假印象”。
这封信代表了Character.AI面临的又一争议。这家AI公司仍在处理一起涉及佛罗里达州一位母亲的诉讼,她声称该公司2023年的聊天机器人技术导致了她14岁儿子自杀身亡。
(全文结束)


