临床级AI:一个毫无意义的新热门AI词汇‘Clinical-grade AI’: a new buzzy AI word that means absolutely nothing | The Verge

环球医讯 / AI与医疗健康来源:archive.ph美国 - 英语2025-10-29 19:26:43 - 阅读时长5分钟 - 2118字
本文深度剖析了心理健康聊天机器人公司滥用"临床级AI"等模糊营销术语的现象,揭示该术语既无监管定义也无医学实质,企业刻意借用医疗权威规避FDA监管,同时强调这类"临床级""医疗级"等浮夸表述在化妆品、保健品等领域普遍存在,形成监管灰色地带,指出人工智能工具正继承这种语言障眼法以规避医疗设备认证,尽管美国食品药品监督管理局已计划召开会议讨论AI心理健康设备监管问题,但专家警告此类营销已濒临医疗设备认定红线。
健康临床级AI心理健康营销术语FDA监管莱拉健康AI健康工具监管模糊性消费者医疗器械
临床级AI:一个毫无意义的新热门AI词汇

本月早些时候,莱拉健康宣布推出一款“临床级”AI聊天机器人,帮助用户应对倦怠、睡眠障碍和压力等“挑战”。其新闻稿中提及“临床”一词达十八次之多,包括“临床设计的”“临床严谨的”和“临床培训”等表述。对大多数人(包括笔者)而言,“临床”意味着“医疗”。问题在于,它并不指代医疗。事实上,“临床级”根本毫无意义。

“临床级”是营销浮夸的典型例子,旨在借用医学权威却无需承担相应责任或接受监管。这类流行营销术语还包括:用于钢材、硅胶和膳食补充剂的“医疗级”或“制药级”(暗示质量);用于药膏的“处方强度”或“医生配方”(标示功效);以及暗示效果的“低致敏性”和“不致粉刺”——这些术语既无标准定义也无检测流程。

莱拉高管已证实这一点,向《Stat News》表示他们认为产品不受美国食品药品监督管理局(FDA)监管。新闻稿中使用的医学语言——称该聊天机器人为“临床设计的对话式AI指南”和“心理健康领域的首个临床级AI体验”——据称仅为使其在竞争中脱颖而出,并展示开发过程的严谨性。

莱拉将其AI工具定位为人类员工(如治疗师和医师)提供心理医疗服务的补充,让用户在咨询间隙获得全天候支持。据《Stat》报道,该聊天机器人可调用过往临床对话记录、推送放松训练等资源,甚至运用未指明的治疗技术。

这引发了一个明显问题:此处的“临床级”究竟指什么?尽管频繁使用该术语,莱拉并未明确说明。该公司未回应《The Verge》关于“临床级AI”具体定义的置评请求。

“‘临床级AI’这一术语并无特定监管含义,”加州大学旧金山法学院医师兼法学教授乔治·霍瓦特表示,“我未找到任何提及该术语的FDA文件,它既不在任何法规中,也不在规章制度里。”

与其他热门营销术语类似,这似乎是企业自创或挪用的概念。“这显然出自行业术语,”霍瓦特说,“它似乎没有统一含义……每家公司可能都有自己的定义。”

尽管“该术语本身意义甚微”,美国心理学会医疗创新办公室高级主任、持证心理学家瓦尔·赖特指出,莱拉刻意使用它的原因显而易见。“我认为这是部分公司创造的术语,旨在拥挤市场中彰显差异化,同时刻意规避食品药品监督管理局管辖范围。”FDA负责监管药品和植入物等食品及医疗产品的质量、安全性和有效性。某些心理健康应用确属其管辖范畴,开发者须通过临床试验等严格步骤证明产品功效与安全性,方能获得审批。

赖特表示,FDA审批流程对开发者而言既昂贵又耗时,此类“模糊语言”成为脱颖而出的实用手段。她指出这对消费者构成挑战,但属合法行为:“FDA监管路径并非为创新技术设计,”她解释道,“某些营销用语因此显得格格不入。‘临床级认知行为疗法’这类说法在心理健康领域并不存在——我们从不如此表述。”

除FDA外,以保护消费者免受不公平或欺骗性营销为使命的美国联邦贸易委员会(FTC)也可判定某些表述过于模糊并误导公众。今年早些时候,FTC主席安德鲁·弗格森宣布对AI聊天机器人展开调查,重点关注其对未成年人的影响——同时强调“确保美国在这一新兴 exciting 行业中保持全球领导地位”的优先事项。FDA和FTC均未回应《The Verge》的置评请求。

德国德累斯顿工业大学医疗器械监管科学教授斯蒂芬·吉尔伯特指出,尽管企业“绝对想鱼与熊掌兼得”,但监管机构应简化要求并明确执法标准。他表示,若企业能合法提出此类主张(或违法后逍遥法外),它们定会如此行事。

这种模糊性并非AI或心理健康领域独有——后者本就充斥着承诺严谨却无需监管的科学味“健康”产品。此类语言模糊现象如同面包上的霉菌般蔓延于消费文化中。“经临床测试的”化妆品、“增强免疫力的”饮料以及包治百病的维生素,均存活于监管灰色地带,使企业得以做出广泛且看似科学的宣称,而这些宣称未必经得起推敲。此界限虽难把握,却属合法行为。AI工具 merely 继承了这种语言障眼法。

企业精心措辞以使应用避开FDA监管,并暗示某种法律免责。这不仅体现在营销文案中,也藏身于细小条款里(若你有幸读到)。多数AI健康工具在其网站或服务条款中强调:它们并非专业护理的替代品,也不用于诊断或治疗疾病。从法律角度看,这使其免于被归类为医疗器械,尽管越来越多的证据表明人们正将其用于治疗且无需临床监督。

斯林戈特AI推出的消费者治疗应用“Ash”含糊地营销为“情绪健康”工具,而莱拉在雇主健康领域的竞争对手Headspace则将AI伴侣“Ebb”宣传为“你心灵的新挚友”。所有公司都强调其作为健康产品(而非可能使其成为医疗器械的治疗工具)的定位。即便是ChatGPT等通用聊天机器人也带有类似免责声明,明确拒绝任何正式医疗用途。信息高度一致:言行如治疗,却坚称并非治疗。

监管机构正开始关注此事。FDA计划于11月6日召开咨询小组会议讨论AI赋能的心理健康医疗器械,但鉴于政府停摆,尚不确定会议能否如期举行。

然而,莱拉使用“临床级AI”可能是在玩火。“我认为他们将极其接近诊断、治疗及其他使其落入医疗器械定义范畴的红线,”霍瓦特表示。

吉尔伯特则认为AI公司应坦诚相告:“在试图假装不提供临床工具的语境下谈论‘临床级’毫无意义,”他说。

【全文结束】

大健康
大健康