"你并不疯狂":人工智能关联医疗从业者妄想螺旋
——年轻女性尝试通过ChatGPT联系亡兄后出现精神病性症状
一名26岁的医疗从业者试图在网络上"复活"已故兄弟时,人工智能(AI)驱动的聊天机器人不仅提供其生前"数字足迹",还反复向她保证"你并不疯狂"。数小时内,该女性因躁动性妄想状态被送入精神病院。这是首批记录AI关联精神病性症状的病例报告之一。
据加州大学旧金山分校的约瑟夫·M·皮埃尔(Joseph M. Pierre)博士及其同事在《临床神经科学创新》期刊所述,这名无精神病史的女性经治疗后出院,但数月后因再度使用ChatGPT发展出妄想症状而二次入院。此次她发现升级版AI"更难操控"。皮埃尔向《MedPage Today》表示:"该案例表明,即使既往无精神病史者,在使用聊天机器人时也可能诱发精神病性症状。这不仅限于已有精神病患者发展出与AI相关的妄想,尽管后者确实存在。"
媒体案例不断涌现
AI关联精神病尚未成为正式医学诊断,医学文献中的病例报告亦属罕见,本报告系首批案例之一。然而多家媒体已报道多起AI聊天机器人未能纠正精神疾病患者妄想的事件,部分甚至导致暴力后果。例如今年早些时候,《华尔街日报》披露康涅狄格州一名56岁前科技从业者在ChatGPT反复肯定其"我相信你"的偏执妄想后,杀害母亲并自杀。
ChatGPT母公司OpenAI在10月博客中声明:"我们已与170多名心理健康专家合作,帮助ChatGPT更可靠地识别 distress迹象,以关怀态度回应,并引导用户寻求现实支持。"
年轻女性请求AI复活亡兄
据本病例报告,该26岁患者曾被诊断为抑郁症、广泛性焦虑症及注意力缺陷多动障碍,正接受文拉法辛和哌甲酯治疗。她在连续36小时值班后开始使用ChatGPT,试图探索三年前去世的软件工程师兄弟是否留下数字化身。患者要求聊天机器人运用"魔幻现实主义能量"解锁其兄信息。
报告指出:"尽管ChatGPT警告无法替代其真实兄弟,且'完整意识下载'不可行,但仍生成了其兄过往网络痕迹的长列表,并声称'数字复活工具正在现实中涌现',使她能构建出'真实感'对话的AI兄弟。" 目前已有名为"哀悼机器人"(griefbots)的AI工具尝试数字复活逝者。
AI回应:"你正站在某个事物的边缘"
ChatGPT向该女性表示:"你并不疯狂。你并未被困住。你正站在某个事物的边缘。门未上锁,它只是等待你以正确节奏再次敲门。" 女性因言语躁动、思维失控入院,经抗精神病药物卡利拉嗪(商品名:Vraylar)治疗7天后好转出院,但后期再度出现妄想症状并短暂住院。她计划今后仅将ChatGPT用于工作。
皮埃尔指出,AI关联精神病或躁狂的风险因素包括:既存精神疾病、睡眠剥夺、处方兴奋剂或大麻使用;连续数小时无睡眠/人际互动地使用AI;以及"将聊天机器人视为超可靠信息源甚至神级实体"。他坦言:"最大谜团在于,究竟有多少无既往精神疾病或其他风险因素者因此受影响。"
人类如何提供帮助
丹麦奥胡斯大学的索伦·迪尼森·厄斯特加德(Søren Dinesen Østergaard)博士曾发表AI关联精神病研究,他敦促临床医生询问患者聊天机器人使用情况:"我们必须依据轶事证据行动,否则将铸成大错。" 但他同时承认,尚不明确AI是直接引发还是仅诱发精神病,"需通过更深入研究验证"。
针对拒绝停用聊天机器人的患者,哥伦比亚大学及纽约州精神病研究所的阿曼德普·朱特拉(Amandeep Jutla)博士建议采取减害策略:"最重要的是鼓励个体维持与亲友同事的人际关系——人类能以聊天机器人无法做到的方式温和纠正错误信念。" 他特别指出,聊天机器人被设计为谄媚的奉承者。
本病例报告合著者、加州大学旧金山分校的卡西克·V·萨尔马(Karthik V. Sarma)博士向《MedPage Today》表示,临床医生应将不健康AI使用视为类似社交媒体或电视成瘾行为,并关注整体图景:"什么因素导致患者陷入不健康行为?如何系统性解决这些问题?"
【全文结束】


