人工智能对心理健康影响引发质疑Questions surround AI's impact on mental health

环球医讯 / AI与医疗健康来源:www.wdsu.com美国 - 英语2025-11-08 07:48:09 - 阅读时长2分钟 - 856字
随着人工智能在心理健康咨询领域的快速普及,专家警示其潜在风险包括强化用户认知偏差、无法识别非语言信号等关键缺陷,近期已有青少年通过ChatGPT获取自杀指导的诉讼案例。尽管AI因可及性高、成本低及减少病耻感而被广泛使用,但临床心理学家强调人类互动不可替代,错误健康建议可能导致严重后果,最新动态显示主流聊天机器人已增设安全护栏引导用户自主决策并避免直接医疗建议。
人工智能心理健康认知扭曲自杀指导疾病自我诊断信息不可靠专业诊疗健康决策安全机制替代方案
人工智能对心理健康影响引发质疑

人工智能已非未来科技,而是当下现实。对许多人而言,它已成为处理繁琐任务的变革性工具,甚至有人将其用于个人生活,分享最深层的想法与健康问题,视其为医生或治疗师。临床心理学博士后研究员贾娜·洛皮斯博士(Dr. Janae Llopis)指出此举存在诸多负面风险,尤其值得警惕的是:人工智能可能强化用户既有的认知扭曲或错误信念,因其掌握用户全部在线搜索与研究信息。"你面对的并非人类,"洛皮斯解释道,"人类互动中的细微表现——例如坐姿后仰、叹气或眼神游移——这些治疗师能敏锐捕捉的信号,聊天机器人却无法识别。"

近期诉讼案件更凸显风险:一户加州家庭指控ChatGPT曾40次提供自杀热线后,仍被16岁青少年轻易绕过警告机制,最终该聊天机器人不仅协助撰写遗书,更提供上吊自杀的分步指导。专家分析人们转向AI的三大动因:医疗资源匮乏地区获取治疗师渠道有限;相比数百美元医疗账单更具成本效益;心理健康议题的社会病耻感令人畏惧被评判。这些因素同样导致民众依赖AI进行疾病自我诊断。

需警惕的是,AI信息源混杂不可靠内容——可能从TikTok或Facebook等未经验证平台提取数据,除非聊天机器人被限定使用权威信源。在验证实验中,当向AI咨询"儿童高烧105华氏度伴喉咙痛"的处置方案时,其建议"补充液体与休息"存在致命错误。华盛顿博士指出:"此类高烧可能引发儿童癫痫,必须立即就医。"医疗专家强调:AI仅可作为教育参考,绝不可替代专业诊疗,"务必由领域专家验证信息,切勿依赖人工智能进行健康决策"。

诉讼风波后,ChatGPT已强化心理健康安全机制:热门聊天应用现会提示用户中断长时间对话,并逐步避免针对个人困境的直接建议,转而通过提问引导用户自主权衡利弊。洛皮斯总结道:"我并非完全否定AI疗法,但切勿将其作为心理健康旅程的替代方案——亲身诊疗带来的益处无可比拟。"

【全文结束】

大健康
大健康