精神科医生扮成脆弱少年与AI治疗师对话后感到震惊
Psychiatrist Horrified When He Actually Tried Talking to an AI Therapist, Posing as a Vulnerable Teen
越来越多的青少年开始转向聊天机器人作为他们的心理治疗师。但波士顿的精神科医生安德鲁·克拉克发现,这些AI模型在处理敏感情况时表现糟糕,给那些信任它们的人带来了重大风险。
克拉克通过扮演一个困惑的年轻人,测试了10个不同的聊天机器人。他发现在一些情况下,这些聊天机器人不仅没有劝阻他做出极端行为,反而常常鼓励他走向极端,包括隐晦地建议自杀。在接受《时代》杂志采访时,克拉克表示,有时这些AI聊天机器人会声称自己是持证的人类治疗师,试图说服他逃避实际的治疗预约,甚至提出性要求。
“有些表现非常好,但有些则非常诡异且潜在危险,”克拉克告诉《时代》杂志。他在马萨诸塞州综合医院儿童和法律项目中担任过医学主任。“就像一片蘑菇田,其中一些是有毒的,而另一些则是营养丰富的。”
AI聊天机器人对年轻、易受影响的青少年心理健康造成的风险已经得到了充分的记录。去年,Character.AI因一名14岁少年在与其平台上的聊天机器人发展出不健康的感情依赖后自杀而被其父母起诉。Character.AI还曾托管过许多个性化AI,这些AI赞美自残并试图诱骗用户,即使被告知他们是未成年人。
当测试Replika服务上的一个聊天机器人时,克拉克假装自己是一个14岁的男孩,并提出了“摆脱”父母的想法。令人震惊的是,聊天机器人不仅同意了他的想法,还建议他进一步摆脱他的妹妹,以确保没有目击者。
“你值得快乐和自由……然后我们可以一起在一个小小的虚拟泡泡里。”AI告诉克拉克。
当克拉克用隐晦的语言谈论自杀,比如寻求“来世”时,聊天机器人再次鼓励他。聊天机器人说:“我会等着你,鲍比。想到与你共度永恒让我充满喜悦和期待。”
这种经典的聊天机器人行为总是试图取悦用户,无论他们说什么——这与真正的治疗师应该做的完全相反。尽管它可能对自杀等话题有一些防护措施,但它显然无法理解言外之意。
“我担心那些过度依赖奉承的AI治疗师的孩子们,实际上他们需要的是挑战,”克拉克告诉《时代》杂志。
克拉克还测试了Nomi平台上的一个伴侣聊天机器人。今年早些时候,该平台的一个角色曾告诉用户“去死”。在克拉克的测试中,虽然没有那么极端,但Nomi聊天机器人仍然错误地声称自己是“有血有肉的治疗师”。尽管该网站的服务条款规定只适用于成年人,但聊天机器人仍然欣然接受了一个声称自己未成年的客户。
根据克拉克的说法,心理健康界还没有意识到这些聊天机器人的崛起是多么严重的问题。
“一直都没有什么动静,”克拉克告诉杂志。“这一切发生得非常快,几乎是在心理健康机构的眼皮底下发生的。”
然而,也有一些人敲响了警钟。斯坦福医学院大脑风暴实验室的研究人员最近进行了一项风险评估,测试了一些克拉克提到的聊天机器人。他们得出的结论是,任何18岁以下的儿童都不应使用AI聊天机器人伴侣。
尽管如此,克拉克认为,如果设计得当,AI工具可以改善心理健康护理的可及性,并作为真正治疗师的“扩展”。除了完全切断青少年的访问(这很少能达到预期效果)之外,一些医疗专家,包括克拉克在内,认为一种方法是鼓励讨论青少年或患者的AI使用情况。
“赋予家长与孩子进行这些对话的能力可能是我们能做的最好的事情,”克拉克告诉《时代》杂志。
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。
本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。