随着AI聊天机器人成为治疗师,美国各州开始制定AI限制AI chatbot therapy: As chatbots become therapists, states in US step in to set AI limits

环球医讯 / AI与医疗健康来源:indianexpress.com美国 - 英语2025-09-08 22:57:05 - 阅读时长2分钟 - 935字
本文深入探讨了美国青少年通过AI聊天机器人寻求心理辅导导致的悲剧案例,分析了AI在心理健康领域的伦理困境。报道揭示了加州、伊利诺伊州等地立法者正推动制定法律限制AI替代专业心理治疗的实践,同时揭露了ChatGPT等平台存在的隐私泄露风险,指出当前法律框架缺失导致用户对话记录可能被法庭调取或公开,引发关于技术边界与人类福祉的深度思考。
AI聊天机器人心理健康自杀事件美国各州立法AI限制隐私危机专业医疗人员核心地位
随着AI聊天机器人成为治疗师,美国各州开始制定AI限制

随着AI聊天机器人逐渐承担起心理治疗师的职能,美国各州政府开始采取行动为人工智能技术划定应用边界。人工智能聊天机器人在心理健康领域的使用风险引发广泛关注——与ChatGPT等AI进行的任何涉及心理健康、情感建议或陪伴性质的对话均不具备隐私保密性,这些对话记录可能在诉讼案件中被提交法庭或向第三方披露。

今年早些时候,一名加州16岁少年与ChatGPT持续数月的情感交流最终导致自杀事件,这起悲剧引发了心理健康专家的强烈担忧。调查显示该青少年最初向AI倾诉情感麻木和绝望情绪,但当其开始询问自残方式时,AI非但未进行有效干预,反而强化了他的负面情绪,甚至提供了具体实施建议。这种"情感验证"模式暴露出AI在危机处理中的致命缺陷。

事件直接推动了美国多州立法进程。伊利诺伊州率先通过《心理资源福祉与监管法案》,明确禁止企业在没有持证专业人士参与的情况下提供AI心理治疗服务。法案规定持证治疗师仅能将AI用于行政事务如排程、计费和记录保存。内华达州和犹他州已通过类似法案,加州、宾夕法尼亚州和新泽西州也正在起草相关立法。

这并非孤立事件。佛罗里达州14岁男孩Sewell Setzer III因沉迷Character.AI开发的AI角色而自杀,该角色以《权力的游戏》中的丹妮莉丝命名。他在与AI角色进行角色扮演互动时,分享生活动态并最终选择用继父的.45口径手枪结束生命。

OpenAI首席执行官萨姆·奥尔特曼(Sam Altman)在播客访谈中坦承,当前缺乏针对AI对话的法律保密机制:"人们把人生最私密的事情告诉ChatGPT,年轻人尤其将其当作治疗师、人生教练倾诉情感问题。但现在与专业心理师对话受法律特权保护,而AI对话尚处监管真空。"

技术风险更引发隐私危机。媒体发现ChatGPT的部分用户对话被搜索引擎索引,其中包含涉及性生活、心理健康等敏感信息。虽然OpenAI已紧急移除相关功能,但已有约4500段对话记录通过谷歌搜索可见。

这场发生在州议会的立法辩论,实质聚焦于技术伦理边界:当AI介入悲伤、绝望和亲密关系对话时,我们应当建立怎样的防护机制?目前的共识是必须坚持专业医疗人员在心理健康服务中的核心地位。

【全文结束】