美国食品药品监督管理局正考虑将健康AI聊天机器人卷入医疗器械的繁文缛节。
2025年11月,美国食品药品监督管理局召开数字健康咨询委员会会议,审议将人工智能心理健康聊天机器人归类为医疗器械的提案。该机构正式声明"拟对视为医疗器械的软件功能实施监管",理由是功能缺陷"可能危及患者安全"。
监管机构强调此"监管路径同样适用于生成式AI产品"。这种正式表述实质威胁将众多作为健康应用运行的AI聊天机器人——按合理定义绝非医疗器械——纳入FDA宽泛的监管范围。若将医疗器械法规强加于此类健康聊天机器人,将是重大决策失误。
医疗器械在FDA注册成本高昂:首先需缴纳每年11423美元的注册费;此后企业将持续承受严苛的政府繁文缛节,层层叠加的成本最终损害消费者对合规产品的可及性。FDA要求医疗器械提交上市前性能文件、风险管理设计及上市后可靠性评估报告,这些流程为企业带来额外支出。倘若所有受影响的心理健康聊天机器人都确属医疗器械,此类成本或可论证其合理性——但事实并非如此。
FDA将"旨在诊断、治愈、缓解、治疗或预防特定疾病(含心理健康问题)"的产品定义为医疗器械。而AI聊天机器人完全不具备上述功能。
心理健康聊天机器人实际提供的是通用应对技巧、正念练习及认知行为疗法式思维重构,旨在支持用户整体健康。它们既不宣称也不意图治疗任何特定病症,且在交互前后均不评估用户状态,更不提供定制化医疗干预。因此,心理健康聊天机器人显然不符合FDA医疗器械监管要求。
然而,FDA确实监管那些明确将产品定位为治疗工具的数字健康技术。例如Rejoyn和DaylightRx两款应用,因其直接宣称治疗已确诊的心理健康问题而被列为医疗器械。这两款应用因针对抑郁症等病症提供治疗方案,故需确保精准性并承担相应责任。相较之下,普通健康工具无需达到同等标准。
AI心理健康聊天机器人本质区别在于:它们不涉及任何医疗诊断、治疗或治愈行为,应被定性为"健康应用",其核心价值在于帮助用户提升自我认知与情绪状态。
尽管未提供FDA定义的"治疗",AI心理健康聊天机器人仍具疗愈效果。正如心理学家和用户指出的,此类机器人能回应问题与诉求、总结对话内容、建议思考主题——这些属于通用健康支持范畴,而非临床诊疗。相关企业对此定位清晰:在提交FDA的公开意见中,热门聊天机器人Ash的开发商Slingshot AI明确表示其目标是"通过提升心理健康支持可及性促进整体健康",而非提供诊疗服务;另一款情绪支持聊天机器人Wysa也声明不会对用户进行诊断或治疗。
这些企业正以低成本方案满足民众全天候沟通需求,恰逢美国数百万民众面临心理健康服务提供者短缺的困境。心理健康聊天机器人Therabot的实证数据显示,使用者持续交互两周后抑郁症状降低51%,中度焦虑缓解为轻度;Ash开发者10周研究发现72%用户孤独感减轻,75%用户感知社会支持增强,五分之四用户希望感提升且生活参与度改善。这些产品切实帮助了民众,FDA不应通过新规抬高其获取门槛。
将心理健康聊天机器人视为医疗器械严重偏离核心事实:它们并非专业心理治疗。事实上,AI心理健康聊天机器人更接近持证专业人士开发的教育型机器人,而非医疗顾问——其建议不涉及临床医患关系或个性化诊断。
尽管有人担忧未被列为医疗器械将导致安全风险,但行业已在自主提升标准。例如ChatGPT已整合心理健康专家意见,使其模型能识别用户 distress、缓和对话冲突、避免强化非理性认知,并引导用户寻求线下诊疗;AI助手Claude的开发商则通过与全球危机干预应用ThroughLine合作,由专业心理咨询师指导模型处理敏感对话。
与Claude、ChatGPT等通用聊天机器人不同,心理健康专用AI专精于敏感话题处理。以Ash为例,其交互优化依托专家输入与科学实证,类似原则同样适用于Earkick、Elomia及Wysa等同类产品。
将AI心理健康聊天机器人归类为医疗器械将扼杀创新:这类无需医疗建议的简易工具本可有效援助困境人群,强加高昂监管成本必将损害寻求帮助的美国民众。FDA若执意将此类技术纳入医疗器械监管,将是重大决策失误。
【全文结束】


