各州尝试监管AI治疗应用States attempt to regulate AI therapy apps | News, Sports, Jobs - The Express

环球医讯 / AI与医疗健康来源:www.lockhaven.com美国 - 英文2025-09-30 18:38:18 - 阅读时长6分钟 - 2543字
面对联邦层面监管不足,美国多个州正积极制定法规规范AI“治疗”应用程序,因日益增多的民众转向人工智能寻求心理健康建议。伊利诺伊州和内华达州已全面禁止AI用于心理治疗,犹他州则设定用户数据保护和非人类身份披露等限制,而宾夕法尼亚州、新泽西州和加利福尼亚州正在审议类似法案。专家指出,各州法律碎片化拼凑的监管体系难以应对快速发展的AI技术,无法充分保护用户权益或追究有害技术责任,同时呼吁联邦机构介入加强监管。生成式AI聊天机器人如Therabot虽在临床试验中展现降低焦虑症状的潜力,但多数商业应用缺乏科学依据且模糊治疗边界,专家强调需平衡创新与安全,避免将AI作为心理医生短缺的简单替代方案,尤其对高危人群可能造成误导风险。
AI治疗应用心理健康州级监管联邦监管聊天机器人用户影响自杀倾向Therabot心理健康服务短缺监管政策调整
各州尝试监管AI治疗应用

在联邦层面缺乏更强有力监管的情况下,随着越来越多民众转向人工智能寻求心理健康建议,部分州已开始规范提供AI“治疗”的应用程序。然而,这些今年通过的法律并未完全应对AI软件开发的快速变化格局。应用开发者、政策制定者和心理健康倡导者表示,由此产生的各州法律碎片化拼凑不足以保护用户或追究有害技术创造者的责任。

“现实是数百万人正在使用这些工具,而且他们不会回头,”心理健康聊天机器人应用Earkick的首席执行官兼联合创始人卡琳·安德烈娅·斯蒂芬(Karin Andrea Stephan)表示。

各州法律采取了不同方法。伊利诺伊州和内华达州已禁止使用AI进行心理治疗。犹他州对治疗聊天机器人设定了特定限制,包括要求其保护用户健康信息并明确披露聊天机器人并非人类。宾夕法尼亚州、新泽西州和加利福尼亚州也在审议规范AI治疗的途径。

对用户的影响各异。部分应用已在实施禁令的州屏蔽访问权限。其他应用则表示正等待法律明确性而暂不作调整。许多法律并未涵盖ChatGPT等通用聊天机器人,这些机器人虽未明确 marketed 用于治疗,但有大量用户将其用于此目的。在用户因交互后失去现实感知能力或自杀的骇人案例中,这些机器人已引发诉讼。

美国心理学会负责医疗创新事务的瓦伊尔·赖特(Vaile Wright)表示,这些应用可能填补需求缺口,她指出全国心理健康服务提供者短缺、护理成本高昂以及参保患者获取渠道不均等问题。

赖特称,基于科学、由专家参与创建并由人类监督的心理健康聊天机器人可能改变行业格局。“这可能帮助人们在危机发生前获得支持,”她说,“但这并非当前商业市场上提供的产品。”正因如此,她强调需要联邦层面的监管和监督。

本月早些时候,联邦贸易委员会宣布已对七家AI聊天机器人公司展开调查——包括Instagram和Facebook母公司、谷歌、ChatGPT、X平台上的Grok聊天机器人、Character.AI和Snapchat的母公司——审查它们如何“衡量、测试和监控该技术对儿童及青少年的潜在负面影响”。同时,食品药品监督管理局将于11月6日召集咨询委员会,审议启用生成式AI的心理健康设备。

赖特表示,联邦机构可考虑限制聊天机器人的营销方式、禁止成瘾性实践、要求向用户披露其非医疗提供者身份、强制企业追踪并报告自杀倾向,以及为举报公司不良行为的人士提供法律保护。

并非所有应用都屏蔽了访问权限。从“陪伴应用”到“AI治疗师”再到“心理健康”应用,AI在心理健康护理中的使用形式多样且难以界定,更不用说围绕其制定法律。

这导致了不同的监管方法。例如,部分州针对专为友谊设计但不涉及心理健康的陪伴应用采取行动。伊利诺伊州和内华达州的法律全面禁止声称提供心理治疗的产品,在伊利诺伊州最高可处以1万美元罚款,在内华达州则为1.5万美元。

但即便是单一应用也难以分类。Earkick的斯蒂芬表示,例如伊利诺伊州法律仍有许多“非常模糊”的地方,因此该公司尚未在该州限制访问权限。

斯蒂芬及其团队最初避免称其卡通熊猫形象的聊天机器人为治疗师。但当用户在评论中开始使用该术语后,他们采纳了这一表述以使应用在搜索中显示。上周,他们再次放弃使用治疗和医疗术语。Earkick网站曾将聊天机器人描述为“您的同理心AI顾问,支持您的心理健康旅程”,如今则改为“自我护理聊天机器人”。不过,斯蒂芬坚称:“我们并不进行诊断。”

用户可设置“紧急按钮”在危机时呼叫信任的亲友,若用户心理健康恶化,聊天机器人会“提醒”其寻求治疗师帮助。但斯蒂芬表示,该应用从未设计为自杀预防工具,若有人向机器人透露自残念头,警方也不会被通知。她称乐见人们以批判眼光审视AI,但担忧各州能否跟上创新步伐。“一切演化的速度极为迅猛,”她说。

其他应用则立即屏蔽了访问权限。当伊利诺伊州用户下载AI治疗应用Ash时,会收到一条消息敦促他们联系立法者,声称“误导性立法”已禁止Ash等应用,“而本意要监管的未受监管聊天机器人却可自由造成伤害”。Ash的一位发言人未回应多次采访请求。

伊利诺伊州金融与专业监管部秘书小马里奥·特雷托(Mario Treto Jr.)表示,最终目标是确保只有持证治疗师才能提供治疗。“治疗远不止文字交流,”特雷托说,“它需要同理心、临床判断和道德责任,而AI目前都无法真正复制。”

一款聊天机器人应用正尝试完全复制治疗。今年3月,达特茅斯学院(Dartmouth College)团队发布了首项针对心理健康治疗生成式AI聊天机器人的随机对照临床试验。该聊天机器人名为Therabot,旨在为确诊焦虑症、抑郁症或进食障碍的患者提供治疗,其训练基于团队编写的案例和对话记录以展示循证响应。

研究发现,用户对Therabot的评分与治疗师相当,且使用八周后症状显著减轻,优于未使用者。每次交互均由人类监督,若聊天机器人响应有害或非循证,人类会介入干预。

领导该研究的临床心理学家尼古拉斯·雅各布森(Nicholas Jacobson)表示,结果展现出早期潜力,但需更大规模研究证明Therabot是否适用于广大人群。“这一领域如此崭新,我认为行业需要比当前更谨慎地推进,”他说。

许多AI应用优化用户参与度,设计为支持用户所有言论,而非像治疗师那样挑战其想法。许多应用游走于陪伴与治疗之间,模糊了治疗师在道德上不会逾越的亲密边界。Therabot团队力求避免这些问题。

该应用仍在测试中,尚未广泛可用。但雅各布森担忧严格禁令对谨慎开发者的影响。他指出伊利诺伊州缺乏明确途径证明应用安全有效。“他们想保护民众,但现行体系正严重失败,”他说,“因此固守现状实不可取。”

监管者和法律倡导者表示愿意调整政策。但全国社会工作者协会(National Association of Social Workers)通过其成员在伊利诺伊州和内华达州推动法案的凯尔·希尔曼(Kyle Hillman)称,当前聊天机器人并非心理健康服务提供者短缺的解决方案。“并非所有感到悲伤的人都需要治疗师,”他说。但对于有真实心理健康问题或自杀念头的人,“告诉他们‘我知道存在人手短缺,但这里有款机器人’——这是种特权立场。”

【全文结束】

大健康
大健康