2025年9月,达特茅斯大学提供的一张图片展示了与Therabot生成式AI聊天机器人进行心理健康治疗的短信交流。——迈克尔·海因茨、尼古拉斯·雅各布森/达特茅斯大学通过美联社供图
在缺乏更严格美国联邦法规的情况下,随着越来越多民众转向人工智能寻求心理健康建议,部分州已开始监管提供AI“治疗”的应用程序。但这些今年通过的法律未能充分解决AI软件开发快速变化的格局。应用开发者、政策制定者和心理健康倡导者表示,由此产生的州级法规拼凑局面不足以保护用户或追究有害技术创造者的责任。
“现实是数百万人正在使用这些工具,他们不会回头,”心理健康聊天机器人应用Earkick的首席执行官兼联合创始人卡琳·安德烈娅·斯蒂芬表示。
各州法律采取不同方法。伊利诺伊州和内华达州已禁止使用AI进行心理治疗。犹他州对治疗聊天机器人设置了特定限制,包括要求其保护用户健康信息并明确披露聊天机器人非人类身份。宾夕法尼亚州、新泽西州和加利福尼亚州也在考虑监管AI治疗的方式。
对用户的影响各异。部分应用已在禁令州限制访问,其他应用则表示正等待法律进一步明确而暂不调整。许多法律未涵盖ChatGPT等通用聊天机器人——它们虽未明确营销为治疗用途,却有大量用户将其用于此目的。这些机器人已卷入多起严重诉讼,涉及用户因互动后丧失现实感知或自杀的悲剧事件。
美国心理学会负责医疗创新的韦尔·赖特同意这些应用可能填补需求缺口,指出全美心理健康服务提供者短缺、护理成本高昂以及参保患者获取渠道不均等问题。赖特表示,基于科学依据、由专家参与开发且有人类监控的心理健康聊天机器人有望改变行业格局。“这可能帮助人们在危机前得到支持,”她说,“但这并非当前商业市场的产品。”因此,她认为需要联邦层面的监管和监督。
本月早些时候,联邦贸易委员会宣布将对七家AI聊天机器人公司展开调查——包括Instagram和Facebook母公司、谷歌、ChatGPT、X平台聊天机器人Grok、Character.AI和Snapchat的母公司——审查其“如何衡量、测试和监控该技术对儿童青少年的潜在负面影响”。食品药品监督管理局将于11月6日召集咨询委员会,审查生成式AI赋能的心理健康设备。赖特表示,联邦机构可考虑限制聊天机器人的营销方式、禁止成瘾性实践、要求向用户披露其非医疗提供者身份、强制企业追踪报告自杀倾向,并为举报公司不当行为者提供法律保护。
并非所有应用都限制访问
从“陪伴应用”到“AI治疗师”再到“心理健康”应用,AI在心理健康护理中的应用多样且难以定义,更遑论围绕其制定法律。这导致监管方式各异。例如,部分州针对专为友谊设计但不涉足心理健康的陪伴应用,而伊利诺伊州和内华达州的法律则直接禁止声称提供心理治疗的产品,在伊利诺伊州最高可处1万美元罚款,内华达州为1.5万美元。
但单个应用的分类仍存困难。Earkick的斯蒂芬表示,例如伊利诺伊州法律仍有许多“模糊地带”,该公司未在该州限制访问。斯蒂芬团队最初避免称其卡通熊猫形象聊天机器人为“治疗师”,但当用户在评论中使用该词后,他们采纳了这一术语以提升应用搜索可见度。上周,他们再次弃用治疗和医疗术语:Earkick官网曾描述其聊天机器人为“您的同理心AI顾问,助力您的心理健康旅程”,现改为“自我护理聊天机器人”。斯蒂芬坚称:“我们并非进行诊断。”
用户可设置“紧急按钮”在危机时呼叫信任的亲友,若用户心理健康状况恶化,聊天机器人会“提醒”其寻求治疗师帮助。但斯蒂芬强调,该应用从未设计为自杀预防工具,若用户向机器人提及自残想法也不会报警。她表示乐见人们以批判眼光审视AI,但担忧各州能否跟上创新步伐。“一切演进的速度极其迅猛,”她说。
其他应用则立即限制访问。当伊利诺伊州用户下载AI治疗应用Ash时,会收到提示消息敦促其邮件联系立法者,声称“误导性立法”已禁止Ash类应用,“却让本应监管的未受监管聊天机器人自由造成伤害”。Ash发言人未回应多次采访请求。伊利诺伊州金融与专业监管局秘书长小马里奥·特雷托表示,目标终是确保仅持证治疗师提供治疗。“治疗远不止文字交流,”特雷托说,“它需要同理心、临床判断和伦理责任,而AI目前无法真正复制这些。”
一家聊天机器人公司正尝试完整复现治疗
今年3月,达特茅斯大学研究团队发布了首项针对心理健康治疗生成式AI聊天机器人的随机临床试验。该聊天机器人Therabot旨在治疗焦虑、抑郁或进食障碍患者,其训练基于团队编写的案例和对话转录本,以展示循证响应方式。研究发现,用户对Therabot的评价与治疗师相当,且使用八周后症状显著低于未使用者。每次互动均有人类监控,若聊天机器人响应有害或非循证则介入干预。
临床心理学家尼古拉斯·雅各布森(其实验室主导该研究)表示,结果初显希望,但需更大规模研究验证Therabot对大量人群的有效性。“该领域全新剧变,我认为行业需比当前更谨慎推进,”他说。许多AI应用为优化参与度而设计,仅支持用户所有言论而非像治疗师那样挑战其想法,多数应用在陪伴与治疗间游走,模糊了治疗师本应坚守的亲密界限。Therabot团队力求避免这些问题。
该应用仍在测试中,未广泛可用。但雅各布森担忧严格禁令对采取审慎方法的开发者意味着什么。他指出伊利诺伊州缺乏证明应用安全有效的清晰路径。“他们想保护民众,但现行体系正令民众失望,”他说,“因此固守现状绝非上策。”监管机构和法律支持者表示愿意调整。但通过全美社会工作者协会在伊利诺伊州和内华达州游说法案的凯尔·希尔曼强调,当前聊天机器人并非心理健康服务短缺的解决方案。“并非每个感到悲伤的人都需要治疗师,”他说,“但对于有真实心理健康问题或自杀念头的人,‘我知道人手短缺但这里有机器人’——这种立场实属特权。”——美联社
【全文结束】


