人工智能有望实现医疗民主化,但更完善的监管应先行一步Contributor: AI could democratize medicine, but better regulation comes first - Los Angeles Times

环球医讯 / AI与医疗健康来源:www.latimes.com美国 - 英语2026-05-08 17:44:13 - 阅读时长4分钟 - 1929字
本文探讨了人工智能在医疗领域的应用潜力与监管挑战,指出AI有潜力解决医疗资源不平等和可及性问题,但同时也存在安全风险,需要建立统一的联邦监管框架来确保患者安全,防止各州监管标准不一导致的混乱,同时强调适当的监管不会阻碍技术进步反而能促使其健康发展,文章通过作者在急诊医学领域的亲身经历说明当前医疗系统中的巨大缺口以及AI可能带来的改变,最后呼吁建立以患者安全为核心的监管体系,确保临床AI在快速发展的同时不会损害患者权益。
医疗人工智能医疗民主化医疗监管医疗可及性患者安全临床AIFDA监管医疗服务缺口
人工智能有望实现医疗民主化,但更完善的监管应先行一步

上个月,一组研究人员成功操纵了一款人工智能驱动的药物处方服务,使其将阿片类药物剂量增加两倍,并将甲基苯丙胺标记为安全。几天后,纽约立法者提出了全面立法,将临床人工智能比作无照行医的医生——这可能使人工智能提供基本医疗指导的行为变得非法。加州则采取了中间立场,今年早些时候通过了一项立法,要求在使用人工智能时必须向患者披露。

尽管各州在如何最好地监管医疗领域的人工智能方面继续发出相互矛盾的信号,但数百万美国人并未等待共识。数据显示,如今每三位美国人中就有一位转向人工智能聊天机器人来诊断症状并指导治疗,这一数字在短短一年内翻了一番。简言之,人工智能已经在行医。

我曾在学术医疗中心、安全网医院和社区急诊室担任急诊医学医生。在每一家医疗机构中,我的经历都体现了未满足的医疗需求的惊人压力:患者用完必需药物却无法获得续方;糖尿病患者因预约困难数月未能见到内分泌科医生;尿路感染因未能及时治疗而发展为肾感染。每天,我们的医疗系统都将可管理的疾病转化为重大危机,将急诊室变成美国人无法获得的医疗服务的替代品。这种人类代价是惊人的。

人工智能可以改变这一现实,而这种可能性既不激进也不实验性。女性应该能够在无需预约的情况下续开避孕药。患有唇疱疹或酵母菌感染的患者不应该等待数天才能得到回复;在世界许多地方,这种护理无需处方即可获得。人工智能可以为美国患者带来同等的可及性,同时内置适当的安全标准。

事实上,这一愿景最雄心勃勃的模式比大多数人意识到的更进一步:联邦政府目前正在向私营部门征集提案,开发能够独立管理心力衰竭事件的人工智能,这是一种只有1%的患者能获得推荐药物治疗方案、五年死亡率现已超过50%的疾病。

人工智能大幅扩大医疗可及性的潜力是一件好事,甚至可能是革命性的。大多数美国人并不是在人工智能和他们信任的家庭医生之间做选择。成本和医生短缺等障碍意味着美国人只能在人工智能和毫无选择之间做出抉择。这些患者理应得到更好的待遇,而人工智能是数十年来首个承诺大规模提供实质性帮助的发展。

正因如此,除临床实践和研究外,我最近加入了一家利用人工智能实现医疗可及民主化的公司。我并非轻率地做出这一决定。对于像人工智能这样强大的技术在没有适当保障的情况下触及脆弱患者,有充分理由保持警惕。但答案不是纽约正在考虑的方法。医生和政策制定者都不能在患者用人工智能填补医疗系统的众多缺口时袖手旁观。我们需要的是严肃、可执行且适应技术发展速度的监管。

联邦政府已经开始影响这一快速变化的领域。今年1月,食品药品监督管理局(FDA)更新了其软件指南,允许人工智能工具在辅助医生时接受较少的监管。根据新规定,使医生能够独立审查人工智能建议依据的软件不属于该机构对医疗设备的监管范围。一个典型的例子是能够在医生签署处方前警告其危险药物相互作用的软件。

但这一例外仅适用于有医生参与的人工智能。对于直接与患者对话而没有医生在场的人工智能,或在时间紧迫情况下做出建议的人工智能,没有类似的豁免。这种技术可能仍需接受FDA的全面监管,尽管政府尚未就此表态。为快速发展的技术建立联邦监管框架确实困难,FDA的谨慎可以理解。但结果却适得其反:讽刺的是,自主运行程度最高的临床人工智能受到的监管最少。

在这种真空状态下,各州迅速采取了不同的方向。犹他州、亚利桑那州和得克萨斯州等州正在建立加速部署的框架。而纽约州和加州等州则致力于限制医疗领域的人工智能。在许多方面,这是民主实验室模式按预期运作,允许联邦政策通过州级实验和证据收集找到立足点。但对于这种具有重大影响的技术,50种相互竞争的标准不可能是答案。无论患者居住在哪里,当他们使用临床人工智能时,都应享有基本保护,而开发这些工具的公司则需要遵守优先考虑患者安全的统一标准。

我们需要的框架是FDA已知如何操作的延伸:在临床人工智能系统部署前,要求提供独立的第三方安全性和有效性证据;将对抗性安全测试作为审批流程的一部分;并实施统一的联邦标准,允许各州在此基础上进一步加强但不能低于该标准。最后,当人工智能伤害患者时,必须有明确的责任追究路径。医疗过失责任已有数十年历史,可以在此加以适应。

许多人认为监管会拖慢变革性技术的发展,但历史表明情况并非如此。联邦存款保险使人们足够信任银行而使用它们。联邦安全标准使商业航空成为最安全的大规模交通方式。

临床人工智能需要同样的基础,现在行动刻不容缓——它已经掌握在患者手中,发展速度超过我们曾试图监管的任何技术。那些可能获益最多的患者,也是如果我们无法正确处理将损失最大的人。

哈希姆·齐克里是加州大学洛杉矶分校的助理教授,也是Counsel Health公司的研究与政策医疗总监。

【全文结束】