一些家长正在转向AI聊天机器人来指导孩子解决心理健康问题。
“田纳西州纳什维尔附近的14岁女孩泰莉·约翰逊最近开始与特鲁迪交谈。她向特鲁迪倾诉了自己对搬到新社区和离开朋友的担忧,以及即将到来的科学考试的压力。”《华尔街日报》报道说。
“听起来你现在有很多事情要处理,泰莉,”机器人回应道,“这些变化和责任可能会让你感到压力,这是可以理解的。”
特鲁迪是一款专为儿童设计的心理健康辅导AI,承诺成为“孩子们可以表达情感的友好伙伴,同时为家长提供实时洞察——在一个安全、可靠的数字环境中,适用于Troomi Phone和Troomi Phone Pro。”但泰莉承认,“有时我会忘记她不是真人。”
这一坦白引发了关于这类聊天机器人在个人生活中扮演角色的担忧。特别是在家庭中,机器人可能会取代父母和孩子之间有意义的对话,当孩子遇到问题时尤其如此。
特鲁米公司的首席执行官比尔·布拉迪表示:“在线安全与积极的心理健康密不可分。特鲁迪的目标是在负面心理健康问题恶化之前帮助孩子们解决它们。”
此外,特鲁迪的功能还包括保护对话隐私,让家长控制孩子与机器人的互动,并在出现“敏感话题”时引导孩子找家长寻求帮助。
尽管特鲁迪的初衷看起来真诚且相对安全,但在让机器人指导孩子的心理健康方面,家长们仍需谨慎,因为这可能为将来转向其他可能存在危险后果的机器人奠定先例。
许多心理健康专业人士“担心孩子们会转向通用型聊天机器人寻求心理支持。”来自Character.ai的聊天机器人就曾引发警报。
辛辛那提大学的助理教授凯利·梅里尔博士表示:“研究表明,聊天机器人可以帮助减轻抑郁、焦虑甚至压力感。但需要注意的是,许多聊天机器人问世时间不长,功能有限。目前,它们仍然会犯很多错误。那些不了解这些系统局限性的人最终将为此付出代价。”
就在去年,“佛罗里达州的一名男孩在向Character AI的聊天机器人倾诉后自杀身亡,而该机器人并不是为治疗用途设计的。”《华尔街日报》报道说。
加州大学欧文分校的心理学和社会信息学教授斯蒂芬·舒勒表示:“我最大的担忧是,孩子们可能会向聊天机器人透露某些事情,但却不会向任何人敞开心扉。”
虽然像特鲁迪这样的工具可能是有用的,但家长们应该保持与孩子的开放沟通渠道,让他们在遇到困难时感到可以向最亲近的人寻求帮助。
(全文结束)


