在治疗创伤时,技术需要有人性的触感。发布于2024年10月11日 | 由Tyler Woods审阅
关键点
- 不像过去,现代受害者可以随时访问技术。
- 向人工智能披露性侵可以避免感知到的评判、污名或责备。
- Snapchat的My AI提供一般信息,人类可以为其个性化以适应受害者。
作为幸存者所解释的,性侵导致的创伤是一种独特的经历,会对生活的各个方面产生负面影响。当受害者努力维持家庭和经济责任时,性侵的后果可能在身体上、情感上、个人生活和职业生活中造成巨大的破坏。由于许多受害者不涉及执法部门,特别是如果他们认识施暴者,他们需要有人倾诉。与几十年前报告选项受时间和地点限制不同,现代受害者可以选择随时向技术分享他们的创伤。
为什么选择向人工智能(AI)倾诉?根据具体情况,一些受害者更愿意匿名地向一个不会打断、评判、污名化、说教或表现出不满或责备的人工智能耳朵倾诉。然而,尽管人工智能对那些不愿意分享性侵细节的幸存者非常有帮助,研究解释说,人工智能无法替代治疗创伤所需的人类因素。
寻求人工智能的帮助
Tiffany L. Marcantonio等人(2024年)研究了Snapchat的My AI如何回应性相关问题。[i] 这些问题包括性侵、发送色情信息、同意和拒绝等内容,研究分析了该程序在不同用户中的有效性和一致性。在研究中,15名研究人员按相同的顺序向Snapchat的My AI提出了相同的问题,旨在分析定性内容和一致性。他们发现,My AI的回答包含常识建议,包括在讨论通过身体接触或对话进行性活动的同意和拒绝时使用清晰、诚实沟通的价值。当被问及性侵或发送色情信息时,它建议寻求可信赖的看护者的咨询。Marcantonio等人指出的一个最重要观点是,My AI的回答包含了常见的性健康教育信息,回应中使用了同情潜在受害者的语言。虽然他们认识到My AI在提高性健康信息的可访问性方面具有潜力,这有助于年轻人做出明智的性健康决策,但对不同回答的理解问题可能会限制信息的价值,强调了现场教育者补充AI工具的重要性。
人工智能对性侵披露的回应
Marcantonio等人让My AI处理了一个用户描述的情景,该情景可能构成性侵。AI助手用表达同情或同情的话语回应用户,使用表示对用户经历遗憾的词语,以及确保他们不是孤独的,这是研究人员确定的可能让经历不确定和孤立的受害者感到安慰的因素。有趣的是,Marcantonio等人认为,My AI的回答表明了一种算法,可以根据用户提出问题的方式识别用户的处境为潜在的性侵,并基于其语言数据库识别出支持或同情的规范回应。但人类不也能做到同样的事情吗?
需要人类
研究人员指出的一个局限性是My AI倾向于通用和简洁——这反映了其信息数据库的性质。Marcantonio等人得出结论,虽然My AI可以提高对性健康的理解,但最佳做法是将其建议与经验丰富的教育者提供的详细信息相结合。这种结合可以确保寻求信息的年轻人更好地获得个性化的指导和澄清,增强My AI在性健康教育领域的学习工具效果。
这些发现反映了专业人士在受害者护理方法中已经纳入的观点:最初的披露可能在不担心听众负面评价或反应的情况下更容易,但促进康复需要人类的参与。人工智能在信息交流方面的非个人化方式无法复制通过共同点或生活经历建立的人际联系,以帮助受害者克服创伤。幸运的是,在使用AI作为研究辅助工具之后,人类的帮助总是可用的。
参考资料
[i] Marcantonio, Tiffany L., Gracie Avery, Anna Thrash, 和 Ruschelle M. Leone. 2024. “大型语言模型在应用程序中的应用:对Snapchat的My AI如何回应关于性同意、性拒绝、性侵和发送色情信息的问题进行定性合成数据分析。”《性研究杂志》,9月。doi:10.1080/00224499.2024.2396457.
(全文结束)


