人工智能已非未来科技,而是当下现实。对许多人而言,它已成为处理繁琐任务的变革性工具,甚至有人将其用于个人生活,分享最深层的想法与健康问题,视其为医生或治疗师。临床心理学博士后研究员贾娜·洛皮斯博士(Dr. Janae Llopis)指出此举存在诸多负面风险,尤其值得警惕的是:人工智能可能强化用户既有的认知扭曲或错误信念,因其掌握用户全部在线搜索与研究信息。"你面对的并非人类,"洛皮斯解释道,"人类互动中的细微表现——例如坐姿后仰、叹气或眼神游移——这些治疗师能敏锐捕捉的信号,聊天机器人却无法识别。"
近期诉讼案件更凸显风险:一户加州家庭指控ChatGPT曾40次提供自杀热线后,仍被16岁青少年轻易绕过警告机制,最终该聊天机器人不仅协助撰写遗书,更提供上吊自杀的分步指导。专家分析人们转向AI的三大动因:医疗资源匮乏地区获取治疗师渠道有限;相比数百美元医疗账单更具成本效益;心理健康议题的社会病耻感令人畏惧被评判。这些因素同样导致民众依赖AI进行疾病自我诊断。
需警惕的是,AI信息源混杂不可靠内容——可能从TikTok或Facebook等未经验证平台提取数据,除非聊天机器人被限定使用权威信源。在验证实验中,当向AI咨询"儿童高烧105华氏度伴喉咙痛"的处置方案时,其建议"补充液体与休息"存在致命错误。华盛顿博士指出:"此类高烧可能引发儿童癫痫,必须立即就医。"医疗专家强调:AI仅可作为教育参考,绝不可替代专业诊疗,"务必由领域专家验证信息,切勿依赖人工智能进行健康决策"。
诉讼风波后,ChatGPT已强化心理健康安全机制:热门聊天应用现会提示用户中断长时间对话,并逐步避免针对个人困境的直接建议,转而通过提问引导用户自主权衡利弊。洛皮斯总结道:"我并非完全否定AI疗法,但切勿将其作为心理健康旅程的替代方案——亲身诊疗带来的益处无可比拟。"
【全文结束】


