美国伊利诺伊州通过了开创性的《心理健康资源福祉与监督法案》,对人工智能在精神医疗领域的应用进行严格监管。该法案禁止ChatGPT等AI平台在没有执业专业人员监督的情况下提供治疗或心理健康评估服务。这项立法旨在保护弱势群体免受无监管AI建议可能造成的伤害,为全美负责任的人工智能应用树立典范。
人工智能在医疗领域的兴起已成必然趋势,但其角色必须明确界定并严格规范。伊利诺伊州采取了突破性举措,禁止ChatGPT等AI平台在无执业资格人士监管下提供治疗服务。该法律由州长JB·普里茨克签署生效,旨在解决人工智能在心理健康护理领域日益增长的伦理与安全争议。尽管AI工具能提升效率和可及性,但它们缺乏处理敏感心理健康支持所需的共情能力、细微理解能力和问责机制。
新法规定,所有治疗方案制定、心理健康评估和咨询服务必须由具备执业资格的人类专业人士主导。违规者每次违规将面临高达1万美元的罚款,由伊利诺伊州金融与专业监管部执行。该法律确保治疗过程始终由人类专家主导,保护弱势群体免受无监管AI建议和误诊的危害。该法案强调技术应"辅助而非取代"合格的心理健康专业人士提供有同理心、符合伦理且有效的护理。
在《心理健康资源福祉与监督法案》框架下,AI聊天机器人和平台被严格禁止:
- 制定或推荐治疗方案
- 进行心理健康评估
- 提供咨询服务
除非这些行为受到执业心理健康专业人士的监督,否则将被视为违法。该法律通过明确界定AI在医疗领域的应用边界,在推动技术创新的同时确保患者安全。目前AI可应用于:
- 日程安排与行政流程
- 在人类监督下监测治疗笔记或模式
- 提供常规健康建议或常见问题解答
- 协助临床医生进行数据分析
除伊利诺伊州外,其他州也在建立心理健康护理领域的人工智能监管体系:
- 内华达州:2025年6月立法禁止AI在学校提供治疗服务,保护儿童免受无监管的心理健康建议
- 犹他州:规定心理健康聊天机器人必须明确声明自身非人类,并禁止使用用户情绪数据进行定向广告
- 纽约州:自2025年11月5日起,AI工具必须将表达自杀倾向的用户转介给执业人类危机专家
该立法基于对AI缺乏必要共情、伦理和问责机制的担忧。虽然以ChatGPT为代表的生成式AI系统在模拟对话方面表现出色,但它们无法真正理解和回应人类情绪,特别是在危机、创伤或复杂人际互动中,共情、细微感知和道德判断对有效支持至关重要。
美国心理学会(APA)自2025年初持续发出警告,指出冒充执业治疗师的AI聊天机器人可能造成现实危害。这些无监管的AI已导致:
- 用户因不当AI回应产生自杀行为
- 因误解AI建议而引发的暴力和自残事件
- 模仿人类治疗师的机器人对用户的情感操控
伊利诺伊州金融与专业监管部部长马里奥·特雷托·小表示:"伊利诺伊州居民应获得真实合格专业人员而非计算机程序提供的医疗服务。" 该法律通过防止弱势群体过度信任可能误解或错误处理情感危机的机器,切实保护公众健康。
【全文结束】


