人工智能在心理辅导和治疗中的应用正在迅速发展,但许多专家对其有效性和伦理问题表示担忧。
心理学家和医疗专业人士提出了两个主要关切点:一是人工智能如何准确地解释和处理人类的心理数据;二是其模拟情感和同理心是否跨越了伦理界限。
加州大学伯克利分校的生物伦理学和精神病学教授乔迪·哈尔彭在接受西班牙新闻媒体《国家报》采访时指出,使用机器来模拟同理心或同情心以建立情感亲密关系可能被视为一种操纵行为。她在接受UC Berkeley Research采访时进一步强调,某些形式的疗法依赖于患者与治疗师之间脆弱的情感关系。
“我非常担心用一个AI机器人取代人类进行基于脆弱情感关系的治疗。”
在西方医疗系统中,由于心理健康专业人员短缺和护理资源有限,AI聊天机器人越来越多地被视为低成本且随时可用的工具,为患有抑郁症、焦虑症或孤独感的人提供全天候支持。
其中最著名的之一是Wysa,它使用广泛接受的认知行为疗法。该应用程序已被纳入英国国民健康服务体系(NHS)的数字健康应用程序库。据Wysa的总监约翰·坦奇称,当用户的回答偏离轨道时,聊天机器人会引导用户回到结构化的临床工具上。
另一个工具Pi由美国公司Inflection AI开发,因其温暖的对话风格而受到关注。它属于一类能够生成“惊人真实”互动的关系型聊天机器人。然而,哈尔彭强调,无论AI是以专业身份还是伴侣身份出现,都无法替代经过专业培训的心理学家。
包括Pi在内的一些公司通过声明他们不提供医疗服务来避免医疗责任。然而,他们的平台往往针对经历严重心理健康挑战的用户,这引发了关于道德营销和用户安全的担忧。
加拿大西蒙弗雷泽大学的伦理和AI研究员让-克里斯托夫·贝尔塞-皮蓬在接受《国家报》采访时表示,这个领域充满了“灰色地带和半真半假的信息”。
“有些公司公开声明他们无意取代人类心理学家,而另一些公司则夸大其功能并淡化其局限性。”
他指出,在心理健康领域,误导性的声明不应被接受,即使在其他行业中可以容忍。“这不仅有可能对脆弱个体造成严重的误解,还会削弱真正心理治疗的复杂性和专业性。”
麻省理工学院媒体实验室与OpenAI今年早些时候合作进行了一项研究,涉及近1000名ChatGPT用户,并分析了四周内的约4000万次互动。
研究发现,那些重度依赖AI聊天机器人的用户感到更加孤独和情感依赖,同时减少了现实生活中的社交活动。语音聊天最初有助于减少孤立感,但随着时间的推移,这种效果逐渐减弱。
虽然专家们继续质疑AI是否应该取代人类治疗师,但许多人承认,聊天机器人可以作为数百万无法负担或无法获得传统护理的人的临时解决方案。
贝尔塞-皮蓬警告说,如果聊天机器人提供的建议不合适,依赖心理机器人可能会“加重症状”。尽管存在这些担忧,他也承认,在当前的医疗环境下,AI工具可能成为那些难以获得专业护理的人的临时选择。
(全文结束)


