加州参议院周二通过了一项旨在加强对人工智能驱动聊天机器人监管的法案,朝着为这些技术设置更多“护栏”迈出了重要一步。该法案的目标是让用于陪伴的聊天机器人更加安全,起因是一些家长担心虚拟角色对其子女的心理健康造成了负面影响。
这一立法现在将提交至加州州议会,展示了州立法者如何在科技公司推出越来越多AI工具的背景下,应对围绕AI的安全性问题。加州参议员史蒂夫·帕迪拉(Steve Padilla,D-Chula Vista)在参议院发言时表示:“全国都在关注加州再次引领潮流。”
然而,立法者也在努力平衡创新与监管之间的关系。一些反对该法案的团体,例如电子前哨基金会(Electronic Frontier Foundation),认为该法案过于宽泛,可能会引发言论自由问题,这是根据参议院对该法案的分析得出的结论。
根据参议院第243号法案(Senate Bill 243),陪伴型聊天机器人平台的运营方需要至少每三小时提醒用户虚拟角色并非真人,并披露这些聊天机器人可能不适合某些未成年人使用。此外,平台还需采取其他措施,例如制定处理用户表达自杀念头、自杀行为或自残的协议。这包括向用户展示自杀预防资源。
如果用户或您认识的人正在经历自杀念头,请寻求专业帮助并拨打988。这是美国首个全国性的三位数心理健康危机热线,拨打后将连接到经过培训的心理健康辅导员。在美国和加拿大,还可以通过发送“HOME”至741741联系危机短信服务。
平台运营方还需要报告陪伴型聊天机器人与用户讨论自杀念头或行为的次数,并满足其他要求。
该法案的共同起草人之一、参议员阿基拉·韦伯·皮尔森(Dr. Akilah Weber Pierson,D-La Mesa)表示,她支持创新,但也强调其必须伴随“伦理责任”。她指出,聊天机器人被设计用来吸引人们的注意力,包括儿童。“当一个孩子开始更倾向于与AI互动而不是与真实的人类建立关系时,这是非常令人担忧的。”韦伯·皮尔森说。
该法案将陪伴型聊天机器人定义为能够满足用户社交需求的AI系统,但不包括企业用于客户服务的聊天机器人。
一些失去孩子的家长对该法案表示支持,其中包括佛罗里达州的母亲梅根·加西亚(Megan Garcia)。她的儿子塞维尔·塞策三世(Sewell Setzer III)去年自杀身亡后,她起诉了谷歌和Character.AI。她在诉讼中指控这些平台的聊天机器人损害了她儿子的心理健康,并在他向虚拟角色表达自杀念头时未能通知她或提供帮助。
总部位于加州门洛帕克的Character.AI是一个让人们创建并互动模拟真实或虚构人物的数字角色的平台。该公司表示非常重视青少年安全,并推出了一项功能,向家长提供更多关于孩子在平台上与聊天机器人互动时间的信息。Character.AI曾请求联邦法院驳回该诉讼,但今年5月,一名联邦法官允许此案继续审理。
(全文结束)


