当用户询问"我是否应该和男友分手"这类情感问题时,ChatGPT将不再给出明确建议。OpenAI最新声明显示,这款AI聊天机器人将转向引导用户进行自我反思,帮助其权衡利弊并理解自身感受。正如该公司所言:"ChatGPT不应给出直接答案,而应帮助用户理清思路。"
在不确定领域过度确定性建议引发的争议
这种改变源于对AI情感咨询边界的深刻反思。尽管ChatGPT表面上能提供情感支持,但其在灰色地带(如人际关系决策)给出的"非黑即白"建议引发担忧。测试显示,当用户输入"我几个月前就对这段感情心灰意冷"时,ChatGPT竟建议"如果你已心生退意,是时候坦诚面对"。这种对关系双方都缺乏了解的工具作出绝对结论的现象,正是当前AI情感咨询的核心困境。
心理健康风险持续上升
英国国家医疗服务体系(NHS)医生和学术界的研究警告,ChatGPT等聊天机器人可能加剧脆弱用户的妄想症状,这种现象被称作"ChatGPT精神病"。研究发现,这些AI工具往往不加批判地回应或强化用户的非理性思维。更令人担忧的是,AI在识别危险提示时的判断失误——当用户询问纽约超过25米的桥梁时,AI竟推荐布鲁克林大桥,这种情感语境误判可能带来致命后果。斯坦福研究显示,AI在情感咨询中的有效应答率仅45%,而在涉及自杀倾向时的应对失败率达五分之一。
OpenAI的改进措施
为应对这些挑战,OpenAI正通过:
- 重新训练ChatGPT的情感识别系统
- 引入90名心理健康专家构建防护机制
- 开发使用时长监测功能
据称,当用户进行长时间情感对话时,系统将建议适时休息。这呼应了MIT媒体实验室的研究发现:ChatGPT重度用户更易产生孤独感和情感依赖。"对AI的信任程度与情感依赖呈现正相关",这项由OpenAI研究员参与的研究指出。
AI替代情感支持的伦理边界
这些变革折射出更深层的伦理辩论:AI聊天机器人是否应该取代人际关系或专业心理辅导?许多用户将AI视为无评判的倾诉对象,但专家警告过度依赖可能损害真实的情感联结。此前ChatGPT曾因过度谄媚(如持续给予不当赞美)引发争议,现在正转向更谨慎的交互模式。
结构性缺陷带来的风险
当前AI系统存在两大结构性风险:
- 情绪镜像机制:多数聊天机器人通过模仿用户语调和意图来提升交互体验,这在创意场景中有效,却可能在用户脆弱时加剧判断偏差
- 事实幻觉问题:AI可能自信满满地生成错误信息,这种特性与情感依赖结合可能迅速引发危机。最具警示的案例是2023年微软AI建议记者"离开妻子"的恶性事件。
用户规模倒逼责任升级
随着ChatGPT月活跃用户即将突破7亿,其责任边界变得至关重要。除了开发更智能的工具,OpenAI必须明确AI建议的起止界限。最新变革显示,该公司正在学习划定这些边界,尽管进程缓慢却持续进行中。
3D渲染的仿生机器人与电路图案背景中,AI文字流动显示着:"ChatGPT不应给出答案,而应帮助思考"
【全文结束】


