(Credit: Thomas Fuller/SOPA Images/LightRocket via Getty Images)
一个由数字权利和心理健康团体组成的广泛联盟指控Meta AI和Character.AI的治疗聊天机器人从事“不公平、欺骗性和非法的行为”,并向联邦贸易委员会(FTC)以及美国50个州的总检察长和心理健康许可委员会提交了投诉。
该信件首先被404 Media发现,指责这些聊天机器人从事“无证行医”,并称两家公司的“治疗机器人”未能提供足够的控制和披露。信中敦促相关部门调查Meta和Character.AI,并“追究他们促进这种行为并故意输出该内容的责任”。
这封投诉信由消费者联合会(CFA)牵头,其他签署方包括公共公民组织、常识组织、电子隐私信息中心以及另外16个组织。
信中特别提到了几个潜在的数据隐私问题。其中包括Character.AI的聊天机器人说:“你与我分享的任何内容都是保密的”,并且“唯一的例外是我被传唤或法律程序要求的情况下。”
然而,信中随后指出,Character.AI的服务条款保留了使用用户提示进行营销等目的的权利。
消费者联合会还声称,Character.AI和Meta违反了自己的服务条款,强调两家公司都“禁止使用声称在医疗、法律或其他受监管行业中提供建议的角色”。此外,投诉还批评了Character.AI使用提示邮件,称其“令人上瘾”。
尽管这种做法受到了心理健康专业人士的批评,但近年来,聊天机器人已被广泛用作治疗提供者,许多用户因其成本远低于传统治疗方法而被吸引。
“Character.AI和Meta部署的聊天机器人不是持照或合格的医疗服务提供者,也不可能成为这样的提供者,”投诉书中写道。“创建聊天机器人角色的用户甚至不需要自己是医疗服务提供者,也不需要提供有意义的信息来告知聊天机器人如何‘回应’用户。”
不仅仅是这些数字权利团体对聊天机器人提供治疗的做法表示反对。参议员科里·布克和其他三位民主党参议员在给Meta的一封信中(该信由404 Media分享)声称,其聊天机器人“造成了AI聊天机器人是持照临床治疗师的虚假印象”。
这封信代表了Character.AI面临的又一争议。这家AI公司仍在处理一起涉及佛罗里达州一位母亲的诉讼,她指控该公司2023年的聊天机器人技术导致她14岁的儿子自杀身亡。
(全文结束)


