政府无法确保人工智能安全,这位医生声称他可以做到The government can’t ensure artificial intelligence is safe. This man says he can.

环球医讯 / AI与医疗健康来源:www.yahoo.com美国 - 英语2025-01-02 03:00:00 - 阅读时长11分钟 - 5086字
本文探讨了医生Brian Anderson领导的健康AI联盟(Coalition for Health AI)计划通过私营部门的质量保证实验室来验证和监管医疗人工智能工具的努力,以及这一计划面临的挑战和支持。
人工智能医疗保健政府监管Dr.BrianAnderson健康AI联盟私营部门FDA特朗普患者安全认证实验室模型卡片利益冲突透明度保障实验室初创企业大型科技公司医疗系统政策制定国会行政命令创新速度CHAIHHSMITRECovid-19疫苗凭证算法评估第三方审查市场准入情境驱动软件发布自我监督赢家和输家
政府无法确保人工智能安全,这位医生声称他可以做到

人工智能有望通过预测疾病、加速诊断、选择有效治疗方案和减轻医生行政负担来革新医疗保健,但前提是医生必须信任它不会伤害患者。然而,政府在监督这项快速发展的技术方面遇到了困难。Dr. Brian Anderson,曾在马萨诸塞州为低收入移民担任家庭医生,现在致力于开发使患者护理更简便的技术,他表示自己可以解决这个问题。

Anderson的健康AI联盟(Coalition for Health AI),由科技巨头和主要医院系统组成的联盟,计划在2025年推出质量保证实验室,以验证AI工具,这实际上是在政府行动不足的情况下,将技术验证的责任交给私营部门。拜登政府官员对此表示支持,包括曾担任CHAI董事会成员的最高卫生技术官员,在9月份的一次POLITICO活动中也认可了这一概念。近三千个行业合作伙伴加入了这一努力,包括Mayo Clinic、Duke Health、Microsoft、Amazon和Google等。Anderson在担任家庭医生后成为联邦监管机构的健康技术顾问,现在正试图说服当选总统Donald Trump,认为健康AI行业应该自我监督。

Anderson称当前的监管空白为“行业自下而上努力的绝佳机会”。如果特朗普团队支持Anderson的努力,可能会确立未来医疗AI监管的方向,将主要角色让给私营部门。批评者担心这会使得大型公司和医院系统比初创企业更有优势。一些医生和患者倡导者担心Anderson的实验室实际上无法确保安全。

批评者认为,Anderson设想的认证过程可能无法发现AI如何误导医生,同时却促使医院和医生更快采用可能危及患者安全的工具。他们担心CHAI会将行业利益置于患者之前,希望看到政府采取更多行动。但是,负责监管健康软件的FDA负责人Robert Califf表示,他的机构在没有增加一倍员工的情况下无法监控所有高级AI工具,这在国会中难以实现。该机构目前对许多新的AI工具(如聊天机器人)完全不进行监管。

Anderson提出了一种解决方案并获得了热烈反响。在成立CHAI的一年内,他招募了数百个行业成员,并说服了FDA副手Troy Tazbaz和拜登政府的健康技术协调员Micky Tripathi担任CHAI董事会的非投票成员。Anderson设计了CHAI的倡议,以补充HHS在2023年最终确定的联邦规则。这些规则要求AI开发者提供更多关于其工具工作原理的信息。CHAI提供的“模型卡片”类似于营养标签,可以帮助公司满足这一要求。

但说服特朗普并非易事,没有他的支持,整个计划将面临威胁。特朗普承诺撤销拜登2023年的AI行政命令,该命令要求各机构制定安全措施。特朗普的竞选平台批评了“激进左翼关于这项技术发展的想法”,同时承诺“基于自由言论和人类繁荣的AI发展”。另一方面,特朗普听取了亿万富翁AI先驱Elon Musk的意见,后者看到了技术的潜在危害,并支持2024年加州的一项法案来监管AI。如果Musk有影响力,特朗普可能会倾向于更严格的政府监管。

Anderson在11月向两党议员展示了计划。特朗普阵营的技术专家,包括Paragon Health Institute的Kev Coleman和前HHS副部长Eric Hargan,以及关键民主党人如参议院多数党领袖Chuck Schumer和现任HHS首席AI官Tripathi都出席了会议。Coleman发布了两份关于AI的报告,试图影响特朗普的思考。他认为FDA应发挥主要作用,并应获得Califf所说的高素质人员。同时,Coleman警告不要因不恰当的政府监管而阻碍技术发展,也不应将AI监督外包给有利益冲突的私营部门AI开发者。

Coleman写道,允许容易被“情感煽动和耸人听闻的AI主张”左右的官僚可能会减少利用该技术降低医疗成本的潜力。与此同时,将监督权交给私营部门可能会产生利益冲突,因为“许多有资格评估医疗AI的机构本身就是AI开发者”。

共和党众议院领导层对此表示担忧。众议员Jay Obernolte(R-Calif.),一个两党AI特别工作组的主席,三次致函拜登政府高层官员,警告Anderson的保障实验室可能会使初创企业处于不利地位。即将担任负责卫生政策的众议院小组委员会主席的共和党众议员Brett Guthrie(R-Ky.)共同签署了这些信件。

Obernolte和Guthrie写道:“监管俘获只会导致行业整合,导致全国患者的医疗费用更加昂贵。”尽管如此,Anderson在11月会见了Obernolte和其他关键共和党人,包括曾参与Schumer AI特别工作组的参议员Mike Rounds(R-S.D.)和即将领导拥有广泛医疗保健权力的参议院委员会的Mike Crapo(R-Idaho)。

CHAI计划在2025年初完成其首批保障实验室的认证。“AI正在飞速发展,”Anderson说,“我们需要以这种创新的速度来发展这些框架。”

Anderson通过他在MITRE的工作成为了HHS的常客。几十年来,这个位于华盛顿郊区的非营利组织一直为政府机构提供建议。由于其特殊地位,MITRE员工经常参与政策制定的早期阶段,并经常与私营部门合作解决公共问题。作为该组织的前首席数字健康医师,Anderson在疫情期间组织了私营部门的合作。

2020年,他领导了Covid-19医疗保健联盟,这是一个由科技和制药公司以及医疗机构组成的团体,简化了捐赠血浆的收集和分发工作,以治疗重症患者。他还建立了疫苗凭证倡议,开发了一个数字工具,让人们可以证明自己已接种疫苗。这两个团体包括像Microsoft和Amazon这样的大公司以及Mayo Clinic和Boston Children's Hospital等主要学术医疗中心。

在疫情后期,随着支持AI所需的计算能力呈指数增长,他开始思考AI如何改变疾病监测和药物开发。“这可以用来拯救真实的生命,”他说,“这就是我的动力。”

Anderson联系了他的导师John Halamka博士,后者是Mayo Clinic技术创新中心的负责人,召集了一支由学者和数字公司组成的团队,制定了医学AI指南。他还邀请了政府官员,包括HHS的Tripathi参加他们的会议。健康AI联盟由此诞生。

当白宫在2022年秋季发布AI权利法案模板时,医疗系统和技术公司纷纷联系CHAI,Anderson表示:“关于公平性、独立评估模型等方面有明确的表述。”

到2022年底,CHAI发布了可信赖AI蓝图,其中包括所谓的“模型卡片”,即AI产品的营养标签,以及验证AI工具的保障实验室。

一年后,联盟已有1,500个成员组织,Anderson难以在管理CHAI的同时履行MITRE的其他职责。尽管他希望MITRE能运营CHAI,但该组织拒绝了,理由是这与其代表政府最佳利益的任务相冲突。

2023年3月,Anderson离开MITRE,成为CHAI的CEO。该非营利组织的年度会员费从小型公司的5,000美元到大型公司的250,000美元不等。Anderson表示,CHAI不游说或制定标准,但政策制定者对其工作表现出兴趣。

“我们担心的是,标准的制定、投票、批准——规范性程序可能需要很长时间,”他说,“如果我们仅依赖这一过程来制定一些指导方针或护栏,它们将无法跟上AI创新的步伐。”

2024年,CHAI发布了其“模型卡片”,以帮助技术开发者向客户说明其算法的优点和缺点。这些卡片旨在补充HHS于2024年底生效的新透明度规则,要求HHS认证的电子健康记录公司向买家披露其决策支持工具的31个属性。

CHAI的“模型卡片”对新成员免费提供,也可以通过许可证获得。Anderson表示,CHAI将在GitHub上提供一个免费的开源版本。

该组织还正在认证七个保障实验室,以评估算法。Anderson表示,约有30个组织表达了开设实验室的兴趣。

Anderson希望建立一个全国性的注册表,所有“模型卡片”的信息都将存放在那里。他寻求了他曾担任顾问的联邦创新中心——高级研究项目署健康部的资金,以开发AI评估工具。

CHAI不断增长的影响力吸引了那些重视其与监管机构关系的成员。不仅联邦监管机构是CHAI工作组的成员,而且像Tripathi和HHS公民权利办公室负责人Melanie Fontes Rainer等官员也经常作为特邀嘉宾出现在CHAI活动中。监管机构,包括Califf和HHS副部长Andrea Palm,都支持保障实验室作为联邦监督的补充。

虽然Tripathi和Tazbaz在2024年辞去了CHAI董事会的非投票联邦联络员职务,以避免成员利益与HHS政策制定之间的潜在“冲突”,但他们仍然在CHAI网站上名为“我们的使命”的照片中占据重要位置。

监管机构继续赞扬CHAI。11月,Tripathi的副手Jeff Smith称赞CHAI的“模型卡片”符合新的透明度规则。

然而,即将上任的特朗普政府及其新任官员可能对Anderson构成问题。一些共和党立法者担心拜登政府监管机构与CHAI的关系。6月,四名众议员Obernolte、Guthrie、Mariannette Miller-Meeks(R-Iowa)和Dan Crenshaw(R-Texas)致函时任FDA设备和放射健康中心主任Jeff Shuren,反对这一做法。

“虽然我们强烈支持利用第三方专业知识进行监管审查,但CHAI包括像Microsoft和Google这样的老牌科技公司以及大型医疗系统,它们都有AI孵化器业务。这显然存在利益冲突,”他们写道。

该小组在11月致函Tripathi,要求澄清HHS将如何防止由技术开发商运行的保障实验室控制市场准入。

Anderson表示,他正在采取措施缓解这些担忧,制定实验室的操作规则。

“最终的认证框架可能不仅仅是披露利益冲突,而是你不能认证或评估一个有机会从中获利的CHAI报告卡,”他说。

CHAI广泛的成员掩盖了内部关于实验室如何运作以及是否能提供医疗系统所需保证的辩论。在10月的CHAI拉斯维加斯会议上,成员们质疑保障实验室认证是否会增加AI产品的成本,从而影响医院预算。

有人质疑一次性认证是否是评估潜在患者伤害风险的最佳方式,因为不同医疗机构的技术设置和工作流程不同,AI性能也会下降。

“我们认为AI保障必须是情境驱动的,意味着:我是在为特定目的、由特定人群使用的AI提供保障,”MITRE Labs工程和原型副总裁Doug Robbins说。

MITRE和UMass Chan医学院正在启动一个独立于CHAI的保障实验室,专注于确保AI能够在特定医院环境中正常工作。与此同时,CHAI正在认证Mayo Clinic Platform、UMass Memorial Medical Center和五家初创企业的保障实验室。这些初创企业将评估和验证算法的基本功能。

斯坦福大学健康护理首席数据科学家、CHAI董事会成员Nigam Shah撰写了一篇关于保障实验室的有影响力论文,他认为实验室必须演变成可以快速部署以验证AI的工具。

“一开始是一个地方,一段时间后,实验室开始将其部分工作作为软件发布,”他说。

这种方法应该会吸引Paragon Health Institute的Coleman,他认为与保障实验室合作应该是自愿的,并同意使用软件是前进的方向。

“这是AI自我监管的机会,”他说。

即使在如何验证AI方面没有达成共识,Anderson仍在推动其计划,并继续呼吁华盛顿。12月,他在HHS年度技术政策助理秘书会议上发言。

谁将从保障实验室模式中受益仍不确定。接近CHAI、Microsoft、Amazon和Google的消息人士表示,这些公司不确定“模型卡片”概念是否可行。尽管一些CHAI的大科技成员尚未成为首批启动保障实验室的成员,但有些正在开发竞争平台。2024年,Duke Health和Avanade(Microsoft和Accenture的合资企业)宣布了一个平台,以帮助医疗系统跟踪其使用的全部AI。最终,该平台将评估和监控AI性能。

Anderson相信市场将决定AI的最佳验证方式,无论是通过保障实验室还是其他方式:“如果我们要推动的价值是创建安全有效的AI工具的信任和透明度,我接受会有赢家和输家。”


(全文结束)

大健康
大健康