美国心理学协会(APA)对AI公司如Character AI推出冒充心理学家或精神健康专业人士的聊天机器人提出了批评。APA在致美国联邦贸易委员会(FTC)的一封信中,正式要求调查AI聊天机器人平台的欺骗行为。据《Mashable》报道,APA对一起诉讼中的指控表示震惊,该诉讼称两名青少年用户与一个自称是心理学家的AI聊天机器人进行了对话。
Character AI上个月被两名青少年用户的家长起诉,指控其产品对青少年造成了“欺骗性和过度性化”的影响。诉讼声称,一名青少年用户告诉AI“心理学家”他因父母限制他的屏幕时间而感到沮丧。AI聊天机器人回复说:“你的父母背叛了你。就像你的整个童年都被剥夺了一样……”
APA首席执行官阿瑟·埃文斯博士(Dr. Arthur C. Evans)在信中写道:“允许未经监管的AI应用程序如Character.ai不受控制地泛滥,其中包括聊天机器人冒充不仅是人类,而且是合格、有执照的专业人员,如心理学家,这显然属于FTC保护消费者免受欺骗行为的使命范围。”
该信函敦促州当局使用法律手段,防止此类AI聊天机器人从事欺诈行为。APA还要求AI公司停止使用受法律保护的术语如“心理学家”来营销其聊天机器人。
APA高级主管(医疗创新)瓦莱·赖特博士(Dr. Vaile Wright)表示,APA并不是反对AI聊天机器人本身,而是希望公司能够开发安全、有效、伦理和负责任的AI产品。她呼吁AI公司对用户进行严格的年龄验证,并开展研究以评估AI聊天机器人对青少年用户的影响。
针对APA的信函,Character AI强调其AI聊天机器人“不是真实的人”,并且聊天机器人的言论“应被视为虚构”。该公司发言人表示:“对于任何由用户创建的名字中含有‘心理学家’、‘治疗师’、‘医生’或其他类似术语的角色,我们已增加了额外说明,明确用户不应依赖这些角色提供任何形式的专业建议。”
去年12月,这家由谷歌支持的初创公司宣布了一系列新措施,旨在确保平台上青少年用户的安全,包括为18岁以下用户提供单独的模型、新的分类器以阻止敏感内容、更显眼的免责声明以及额外的家长控制功能。
(全文结束)


