你会向AI聊天机器人倾诉个人隐私吗?
对于一些人来说,这可能像是科幻电影中的情节,但对于另一些人来说,这已经成为现实。
越来越多的澳大利亚人正在通过生成式AI聊天机器人获取情感指导和帮助——将其视为免费的私人心理治疗师。
然而,专家们在整体益处方面意见不一,他们权衡了免费且可获得的建议与隐私问题以及涉及重症护理的情况。
它是如何工作的?
人工智能专家罗尼·达斯(Ronnie Das)表示,聊天机器人可以预测一个人可能会说什么,然后使用统计公式来复制这些情绪。
“如果五年前你问我这个问题(关于AI和治疗),我可能会嘲笑你……但现在我们在这里讨论人类情感。”达斯先生说。
“AI绝对能够复制人类情感。”
“它之所以如此先进,是因为它接受了数十年来人类所记录的所有知识的训练,至少是数字化的知识。”
当人们情绪低落或需要片刻反思时,更多的人转向AI聊天机器人。在这种情况下,达斯先生表示,AI在“倾听”、“确认”并提供一种伪理解感方面非常有效。
“心理健康领域的用户数量正在上升,而且增长迅速。”达斯先生说。
“AI会了解你的行为、你是谁,并且一直在构建你的个人档案,了解你是什么样的人,你的思维如何运作……基于这些信息,它们非常善于个性化回答。”
有哪些缺点?
但是,根据澳大利亚心理学会主席萨拉·奎因(Sara Quinn)的说法,AI聊天机器人不能像人类一样“感受、思考或关心”。
“无论算法多么智能或创新,都无法取代两个人之间神圣的空间。”奎因博士说。
“目前的通用AI模型擅长模仿人类的交流和推理,但这只是模仿。”
奎因博士表示,有一种“言论”认为AI可以模拟真实的对话,但它缺乏处理“复杂社交线索”的能力。
人们可能有一些适应不良的应对机制,而聊天机器人无法识别,或者处于需要医疗干预的关键护理阶段。
奎因博士承认,随着技术的发展,人工智能将成为治疗的重要组成部分,但她强调需要隐私法规。
“[这]应该以热情的态度对待。只要我们知道AI的位置,并确保我们能够合乎道德地整合AI的使用,这对我们来说很容易接受。”她说。
会有益处吗?
当谈到为生活在偏远地区的人们扩大服务时,奎因博士认为AI聊天机器人是一个“不可思议的资产”——比那些在没有支持的情况下默默挣扎的人更好的选择。
西澳大学社会科学学院院长阿曼达·戴维斯(Amanda Davies)也同意这一点。
她说,生活在孤立地区的人们很难找到心理治疗师,面临着漫长的等待时间和高昂的费用。
“对于某些人来说,心理治疗是一种奢侈品,尽管它是必需品。”戴维斯女士说。
“人们不得不将这些事情从家庭预算中削减掉,而这正是ChatGPT可以填补的一个空白,这是一个不幸的事实。”
对于已经在接受治疗的人来说,这种方法通常效果最好,因为他们拥有与AI生成能力互动的语言和工具。
随着这项技术的不断发展,该领域的专家预计,使用这些服务进行情感指导和调节将变得更加普遍。
澳大利亚心理学会表示,AI正在变得正常化,并成为其治疗实践的一部分,但隐私和保密方面的担忧也同样存在。
与此同时,像罗尼·达斯这样的AI专家认为,生成式AI在过去六个月内在心理健康领域取得了巨大进展,并预计这种增长将继续下去。
(全文结束)


