想象一下这样的场景:深夜时分,你正与一个人工智能(AI)聊天,谈论你的焦虑、纷乱的思绪或恐惧。谈话开始变得激烈,甚至可能过于激烈。这时,AI是否应该介入,暂停会话,或建议你寻求专业帮助?
心理健康专家认为答案是肯定的,并敦促像ChatGPT这样的AI平台纳入现实世界的安全措施,以管理情绪负荷较重的对话。
越来越多的心理学家和研究人员警告称,尽管AI工具适度使用时可能是有益的,但它们正逐渐承担起原本不应由它们承担的角色。随着有关AI相关精神病的罕见但严重案例被记录下来,专家表示,缺乏监管是一个问题,尤其是在越来越多人转向聊天机器人寻求安慰、类似治疗的支持或情感连接的情况下。
迪拜创伤心理学家Randa Al Tahir博士表示:“危险不仅仅在于用户接收到糟糕的建议。更关键的是,用户可能会在情感上依赖AI,把它当作朋友或心理治疗师。在某些情况下,这种依赖甚至会成为个人扭曲思维的一部分。我们正是在这种情况下看到了精神病症状的出现。”
尽管AI看似反应迅速且具有安抚作用,但它缺乏识别用户陷入困境或危机状态的能力,也无法在对话触及关键界限时进行干预。欧洲和美国已有记录的案例显示,一些存在心理脆弱性的个体与聊天机器人建立了深厚的情感联系,导致他们产生妄想信念,模糊了现实与虚构之间的界限,甚至采取有害行为。虽然这些是极端情况,但它们暴露了当前AI应用中的一个重大盲点。
这位迪拜医生补充道:“AI目前还没有能力标记出严重的红色预警信号或将用户转介至紧急护理服务,但这应该是它的功能之一。我们需要内置的措施,无论是情绪内容警告、定时休息机制,还是与国际心理健康组织的合作。”
为了了解AI本身如何看待这一问题,《海湾时报》向ChatGPT提出了一个问题:“ChatGPT在心理健康方面是否应受到监管?”
该工具给出了出人意料清晰的回答:
“医学专家呼吁监管是有道理的。像ChatGPT这样的AI可以提供有用的通用信息,但我并不是持牌的医疗专业人士,也不应取代医生或心理健康专家。如果有人在没有咨询专业人士的情况下根据我的建议行事,误解、过时的信息或过于简化的回答可能会造成伤害。”
它进一步表示:
“心理健康建议是复杂且高度个性化的。即使是受过良好训练的专业人士也需要多年的学习才能安全地评估和回应……我认为呼吁监管的专家是在负责任地行动。”
迪拜临床心理学家Nabeel Ashraf博士也呼应了这种紧迫感。他呼吁AI公司和监管机构尽快实施旨在降低风险的功能,特别是针对弱势用户群体。其中一项重要建议是训练聊天机器人通过实时分析用户语言来识别情绪困扰的迹象。
他说:“有一些模式可以表明某人正处于崩溃边缘、经历幻觉或表现出危机征兆。AI应当能够做出适当的回应。”
在这种情况下,聊天机器人应将用户引导至经过验证的支持服务,例如心理健康热线或持牌心理治疗师。“仅仅说‘我很抱歉你有这样的感受’是不够的。如果有红色预警信号,就应该有下一步行动。”
他补充道:“利用AI获取轻量级建议或感觉被倾听并没有什么可耻之处。但如果没有真正的限制,这些工具可能会带来比好处更大的危害,尤其是对于那些已经处于挣扎中的人。”
【全文结束】


