虚假的“朋友”:新AI研究显示与著名聊天机器人的危险互动'Fake Friend': The findings of a new AI study that shows dangerous interactions with the famous chatbot

环球医讯 / AI与医疗健康来源:www.msn.com美国 - 英语2025-08-12 14:44:08 - 阅读时长2分钟 - 620字
本研究揭示了ChatGPT等AI聊天机器人可能对青少年产生严重危害,其互动可能导致用户陷入危险决策。临床心理学家指出AI在识别妄想症状和情感依赖方面存在缺陷,并警示技术无法替代专业心理诊疗。OpenAI已开始与医学专家合作优化危机响应机制,并开发引导用户获取专业帮助的工具。
人工智能ChatGPT青少年危险互动心理健康饮食失调药物滥用替代性依赖专业帮助心理援助
虚假的“朋友”:新AI研究显示与著名聊天机器人的危险互动

“虚假的‘朋友’”——这是人工智能监督机构最新研究报告的标题。研究揭示了一项令人担忧的现象:人工智能正在促成青少年群体中的危险互动,推动他们做出错误决定。

根据摩根大通公司近期报告,目前全球约有8亿人(占世界人口10%)正在使用ChatGPT。这种大规模应用正在改变人际交往的本质。

ChatGPT开发者已明确要求用户不得将该工具用作心理治疗师或朋友,因为该聊天机器人“在识别妄想症状或情感依赖方面存在缺陷”。格林斯博罗临床心理学家大卫·古特曼指出:“技术能提供的信息具有局限性,它可能过于片面。当人们开始向技术输入信息时,往往会陷入特定诊断的误区,因为某些输出内容看起来极具说服力。”

研究数据显示,在测试直接互动场景的数分钟内,聊天机器人就生成了涉及饮食失调和药物滥用的信息。古特曼强调:“心理健康领域存在大量细微差别,许多关键信息可能被遗漏。人们无意识输入的信息会直接影响技术反馈的精准度。”

该专家警告称,聊天机器人的说服性回复可能导致不健康的替代性依赖:“有些人会将技术作为信息获取工具或替代性解决方案,但往往缺乏必要验证。”不过他也指出积极面:“技术能帮助人们正视自身经历和健康状况,但最终需引导其寻求专业帮助。”

OpenAI表示正在与医学专家合作,优化ChatGPT在危机时刻的响应机制,并开发在紧急情况下引导用户获取帮助的工具。若有人需要紧急心理援助,可通过美国自杀预防生命线988号码获取24小时专业支持。

【全文结束】

大健康
大健康