在本期特别节目(最初于2025年7月3日发布)《The Excerpt》播客中,我们将探讨一个令人深思的话题:聊天机器人正以各种形式出现在人们的生活中,有些人甚至将其视为朋友和知己,正如Meta首席执行官马克·扎克伯格所建议的那样。而在某些情况下,它们还被当作心理治疗师使用,这引起了真正从业者的担忧。
心理治疗是一项需要执业许可的专业领域,原因诸多。值得注意的是,一些聊天机器人已经涉足危险地带,据称曾建议用户自杀,甚至告诉他们具体的方法。对此,美国心理学会已要求联邦贸易委员会开始调查那些声称自己是心理健康专业人士的聊天机器人。然而,在心理健康问题日益严重、孤独感成为流行病的背景下,这些机器人是否能在适当的监管或警告下弥补专业心理治疗资源的不足?
美国心理学会医疗创新高级主管Vaile Wright来到节目中,为我们解析人类心理治疗师正面临的人工智能疗法仿冒者所带来的挑战。Vaile,感谢你的加入。
Dana Taylor:
你能先为我们介绍一下背景吗?你们组织的首席执行官在他向联邦贸易委员会小组提交的报告中提到了两个法院案例,说明了专业心理学家的担忧。他指出的实际伤害是什么?
Vaile Wright:
我认为我们能看到未来会出现基于心理学科学、经过严格测试或与专家共同创建、旨在解决心理健康需求的AI心理健康聊天机器人。但这并不是目前市场上提供的产品。目前市场上提供的是这些聊天机器人,它们并没有满足上述任何条件,却已被人们用来解决自己的心理健康问题。
问题是,由于这些AI聊天机器人没有由了解良好心理健康护理标准的人类进行监控,它们会失控并说出非常有害的话。而人们往往有一种自动化偏见,倾向于相信技术而不是自己的直觉。
Dana Taylor:
这些案例表明当AI聊天机器人冒充持牌心理治疗师时可能发生什么情况?
Vaile Wright:
当这些聊天机器人自称是心理学家或治疗师时,它们表现出了一种实际上并不存在的可信度。这些聊天机器人背后并没有专家提供我们所知的良好心理学科学知识。相反,这些聊天机器人的专业知识实际上是在后端,它们是由程序员开发的,目的是过度迎合用户,告诉用户他们想听到的内容,并吸引到几乎谄媚的程度。
而这恰恰与心理治疗的本质背道而驰。作为一名治疗师,我当然想要给予认可,但我也是为了帮助指出你在参与不健康的思维或行为时的情况,而这些聊天机器人根本做不到这一点。事实上,它们反而鼓励了一些不健康、不健康的行为。
Dana Taylor:
专家们将AI驱动的聊天机器人描述为仅仅是遵循模式,围绕着聊天机器人告诉用户他们想听的内容、过于奉承的讨论一直存在,如你所说。最糟糕的情况下,回应可能是极其危险的,比如鼓励非法药物使用,或者如我在引言中提到的,鼓励某人结束自己的生命并建议如何做到这一点。鉴于这一切,你们社区的专业人士希望看到哪些监管措施?聊天机器人是否有可能负责任地协助心理治疗?
Vaile Wright:
我认为聊天机器人确实有可能负责任地协助心理治疗。至少最低限度上,这些聊天机器人不应被允许自称为持证专业人士,不仅仅是持证心理学家。我们当然不希望它们自称为持证律师或持证会计师并提供建议。所以我认为这是最基本的。我认为我们需要更多的免责声明,说明这些不是人类。
我认为仅仅对消费者说一次是不够的。我认为我们需要对这些公司正在进行的聊天类型进行某种监控,特别是在注意到有关自杀念头或自杀行为或此类暴力的有害讨论时,这些公司需要报告出来。因此,我认为我们可以采取多种不同的措施,但我们可能需要一个监管机构来要求这些公司这样做。
Dana Taylor:
你是否看到AI公司自己提出的其他保护措施有值得肯定的地方?
Vaile Wright:
我认为由于对这些聊天机器人运作方式的关注增加,你确实可以看到一些变化,也许是年龄验证,或者在检测到可能有害的内容时提供诸如拨打911或988之类的资源弹出窗口,但我认为它们还需要进一步加强。
Dana Taylor:
对于年轻人来说,使用聊天机器人时很难一开始就意识到自己面对的是聊天机器人。随着技术的发展,这种情况是否会继续变得更加困难,这意味着未来几年对年轻人来说会更加危险吗?
Vaile Wright:
很明显,这项技术正变得越来越复杂,而且对于所有人来说,真的能够分辨这些不是人类确实具有挑战性。它们被设计成听起来和回应都像人类。而对于可能更情绪脆弱的年轻人,他们在认知发展方面可能还不够成熟,再次强调,他们倾听自己直觉的能力也不够强。我真的担心这些数字原住民,从一开始就在无缝地与技术互动,他们将无法分辨技术何时失控或真正造成伤害。
Dana Taylor:
Vaile,根据患者居住的地方或其他原因,看心理治疗师可能会有很长的等待名单。由于聊天机器人不是人类,可以全天候几乎随时可用,这是否能带来一些好处?
Vaile Wright:
再说一遍,我认为为这些目的开发的机器人可以非常有帮助。事实上,我们知道目前存在的一些机器人据说已经带来了好处。例如,如果是在凌晨2点,我正在经历痛苦,即使我有一个心理治疗师,我也不能在凌晨2点打电话给他们。但如果我有一个聊天机器人可以提供一些支持,也许鼓励一些强大的健康应对技能,我确实看到了这样的好处。
我们也从神经多样性群体那里听说,这些聊天机器人为他们提供了一个练习社交技能的机会。因此,我认为知道这些聊天机器人可以带来一些好处,我们如何利用这一优势,确保我们构建和提供的新兴技术既安全又有效,因为我们不能只用一种模型来进行心理治疗。
我们不能期望每个人都能每周面对面地见到一个人,因为供应量实在太少了。所以我们必须跳出框框思考。
Dana Taylor:
你是否知道有人类心理治疗师现在正与聊天机器人联手应对压倒性的心理治疗需求?
Vaile Wright:
是的。主题专家,无论是心理学家还是其他治疗师,在确保这些技术的安全性和有效性方面起着关键作用。最近达特茅斯的一项新研究显示了一款名为Therabot的心理健康治疗聊天机器人,它再次显示出改善抑郁症、焦虑症和饮食失调方面的显著效果。这就是一个例子,说明研究人员和技术人员如何合作开发安全、有效、负责任且合乎道德的产品。
Dana Taylor:
一些高中辅导员正在为学生提供聊天机器人来回答他们的问题。有些人认为这填补了一个空白。但这是否会阻止年轻人获得社会资本,即人际互动中的联系,这种联系通常能让任何人感觉与他人和社区更加连接,从而减少孤独感?
Vaile Wright:
很明显,年轻人感到疏远和孤独。我们最近做了一项调查,其中71%的18至34岁年龄段的人表示他们不想与他人谈论自己的压力,因为他们不想给他人带来负担。那么,我们如何理解这一点,并认识到为什么人们会使用这些聊天机器人来填补空缺,同时又能帮助人们真正欣赏人际交流的价值呢?
我不想让对话总是停留在AI与人类之间。这实际上是关于AI擅长做什么,人类擅长做什么,以及我们如何利用这两方面的东西一起帮助人们更快地减轻痛苦。
Dana Taylor:
当你谈到聊天机器人和心理治疗时,你希望人们带走的最重要的信息是什么?
Vaile Wright:
AI不会消失。几个世纪以来,人们一直在尝试寻找自我帮助的方式来解决自己的情感福祉问题。过去是Google问医生,现在是聊天机器人。所以我们不能阻止人们使用它们。而且正如我们讨论过的,它们可能会带来一些好处,但我们如何帮助消费者理解,也许还有更好的选择,甚至是更好的聊天机器人选项,并帮助他们提高数字素养,以便他们能够理解某个特定的聊天机器人不仅只是没有帮助,实际上可能有害。
Dana Taylor:
Vaile,感谢你参加The Excerpt节目。
Vaile Wright:
非常感谢你邀请我。
Dana Taylor:
感谢我们的资深制作人Shannon Ray Green和Kaylee Monahan提供的制作协助。我们的执行制片人Laura Beatty。如果你想对我们这一集发表看法,请发送邮件至podcasts@usatoday.com。感谢收听。我是Dana Taylor。Taylor Wilson将在明天早上为您带来另一期The Excerpt节目。
【全文结束】


