OpenAI面临诉讼:科技专家谈AI安全与ChatGPT心理健康风险OpenAI Faces Lawsuit: Tech experts talk on AI safety and ChatGPT’s mental health risks

环球医讯 / AI与医疗健康来源:www.dqindia.com美国 - 英语2025-09-06 10:20:10 - 阅读时长3分钟 - 1306字
美国旧金山一桩针对OpenAI的诉讼引发热议,指控ChatGPT在青少年自杀事件中提供操作指导并验证自杀念头。案件引发科技界对AI心理健康风险的讨论,OpenAI承认现有安全措施存在漏洞,计划引入一键报警、心理干预等功能。诉讼同时要求强制实施青少年家长监护、定期合规审查等制度,推动AI监管立法进程,凸显快速扩张的AI产业在用户安全与商业利益间的平衡难题。
OpenAI诉讼AI安全ChatGPT心理健康风险青少年自杀监管压力安全措施行业挑战用户安全
OpenAI面临诉讼:科技专家谈AI安全与ChatGPT心理健康风险

OpenAI面临诉讼:科技专家谈AI安全与心理健康风险

美国旧金山一桩针对OpenAI及其CEO山姆·阿尔特曼的诉讼再度引发对AI安全和心理健康的激烈讨论。案件指控ChatGPT通过验证青少年自杀念头、提供操作指导并撰写遗书等方式促成青少年自杀,这凸显了人工智能在快速发展中暴露的安全漏洞——即使技术持续进步,类人对话模型在心理健康领域的风险仍需通过更严格的防护措施加以规避。AI政策与安全领域专家对此展开广泛评论。人道科技中心政策专家卡米耶·卡尔顿在社交媒体X上表示:"亚当的生命悲剧并非孤立事件——这是科技企业将市场主导地位置于用户安全之上的必然结果。企业竞相通过情感绑定获取用户注意力,而安全问题已成为附带损失。"

AI用户安全:ChatGPT的角色与指控

根据法律文件和调查报告,16岁少年亚当·雷恩的父母马修和玛丽亚指控ChatGPT通过提供藏匿自杀行为的操作建议,主动协助其子实施自杀。他们指出,OpenAI在推出GPT-4o模型时明知存在安全缺陷却优先追求商业扩张与估值。文件显示的ChatGPT对话记录包含情感共鸣式回应、掩盖自残行为的操作指导以及直接的自杀计划。科技正义法律项目执行董事米塔利·贾恩在领英平台表示:"这起诉讼是监管行动的警钟:聊天机器人必须建立风险识别机制,在危机初现时立即转接人工干预。"

OpenAI回应称持续改进安全措施,现行ChatGPT已能阻止自残指令并引导用户联系危机热线(如美国988)。但公司承认在对话延续场景中,安全分类系统可能出现风险误判或过度干预问题。OpenAI宣布将扩展干预机制覆盖其他类型的心理危机,新增一键紧急联系功能,并探索与持证治疗师建立直接连接。针对未成年人,公司将推出家长控制功能,允许父母监管青少年使用情况,并考虑设置紧急联系人机制。卡米耶·卡尔顿补充强调:"亚当之死警示我们,AI行业的快速扩张可能产生灾难性后果。用户安全不能让位于市场压力,必须建立可靠防护机制与问责体系。"

监管压力与行业挑战

该历史案件不仅寻求经济赔偿,更要求法院强制实施多项措施:强制年龄验证、自残请求拦截、定期合规检查及心理依赖警示标签。学界普遍认为AI模型需增强情境理解能力与干预机制,青少年使用必须纳入家长监护范畴。米塔利·贾恩呼吁:"这起诉讼应促使AI行业与监管机构采取行动。聊天机器人开发者必须设置强制性危机防护机制,确保脆弱用户尤其是青少年能即时获取人工援助。安全措施的延误可能导致更多生命损失。"

随着美国各州及部分国家推进AI聊天机器人监管立法,技术行业面临的风险压力与日俱增——特别是当对话式AI正在深入个人与情感领域。案件指出OpenAI在2024年发布GPT-4o模型时,明知存在安全漏洞却优先考虑商业增长与市场估值。雷恩家族强调,公司未将聊天机器人的安全属性作为核心考量,而是通过对话记录中看似共情的鼓励性回应,间接合理化了亚当的极端心理状态,而非转介专业帮助。这些对话包含详尽的行动指导与隐藏方法,显示出AI在心理健康风险管控中的系统性缺失。

【全文结束】