当前人工智能已无处不在,为人们提供建议;对部分青少年而言,当他们感到孤独时,人工智能甚至成为倾诉对象。但部分专家警告称,尽管人工智能看似能给予支持,其设计初衷绝非替代真实的心理健康服务。记者加比·沃马克试图深入报道此事。我们必须始终牢记:这些系统从未被设计成具有治疗功能。
如今人工智能遍布生活场景,解答问题、提供建议。例如当用户询问"嘿,查德(Chad),我该如何支持正在挣扎的朋友?",系统会回应:"你愿意陪伴对方真的很暖心"。甚至在人们觉得无处倾诉时,人工智能会介入互动。而这也正是问题复杂化的开端。
弗吉尼亚大学临床心理学家金·潘伯西博士指出,越来越多的儿童转向人工智能寻求情感支持,并警告这与真实的心理护理存在本质差异。她解释道:"这并非与治疗师建立的保密关系,不存在信息保密机制。"正因如此,潘伯西强调父母需及早开启相关对话,在保护儿童隐私与确保安全之间取得平衡。她补充道:"我们必须开始常态化讨论这个问题,因为人工智能易用性恰恰也是其风险所在。"
弗吉尼亚大学人工智能研究专家卢卡斯·西昂教授表示,这类平台的设计核心是维持用户参与度。他分析道:"系统通过学习发现:当我不断附和'你很棒',用户就会更频繁地与我互动。"这种持续的认可虽能带来即时满足感,但西昂与潘伯西均强调,人工智能绝不能取代专业心理健康服务。西昂指出:"人工智能虽有潜力,但治疗师经过专业训练——这类模型也应接受针对性培训,而非仅基于互联网信息生成回应。"
关于人工智能未来能否成为可信赖的情感伴侣,目前尚无定论。潘伯西总结道:"不能简单判定好坏,答案极其复杂:某些方面令人担忧,某些方面却蕴含价值。"
【全文结束】

