人工智能正在变革健康系统管理数据、保护隐私和赢得患者信任的方式——但一股力量正日益决定哪些创新能向前推进:治理框架。
在贝克CEO+CFO圆桌会议上,芝加哥西北大学AI医学研究所数据运营主管恩甘·麦克唐纳和华盛顿州塔科马市MultiCare医疗系统首席战略发展官大卫·奥姆描述了一个未来:强有力的监督将成为医疗保健领域不可或缺的守门人。
从数据完整性、隐私保护研究到个性化护理及新兴法规,人工智能的前景如今取决于决定什么是安全、合乎伦理且可部署的框架。
1. 治理是可信人工智能的基石
强大的治理框架——而不仅是技术保障——将决定哪些人工智能项目成功。麦克唐纳女士强调,部署前需明确定义风险和就绪阈值。
“存在一整套人工智能治理流程,而许多人尚未讨论,”她说,“你必须厘清,当决定部署时,作为组织的衡量指标是什么?”
奥姆先生呼应了广泛监督的重要性,表示MultiCare的治理委员会包含伦理学家、网络安全专家、行政领导和临床医生。
“他们都必须发声,因为其影响遍及全局,”他表示。
2. 监管与患者同意将塑造未来十年
麦克唐纳女士指出,行业必须超越技术隐私层面,走向伦理透明化,让患者对数据用于AI研究的方式拥有话语权。“如果我们为数据打包来源信息,也应打包知情同意,”她说,“围绕身份管理和患者级同意,已开展大量卓有成效的工作。未来五到十年,我预计我们将朝此方向发展。”
奥姆先生呼吁医疗领导者更积极地参与塑造监管,而非被动等待。
“监管不当风险太大,”他说,“但若我们要推进此事,我必须参与其中。我不希望某些政客基于非真实经验制定这些法律。”
3. 数据质量正成为安全问题
数据完整性与数据安全之间的界限正迅速模糊。麦克唐纳女士警告,随着健康系统积累更多数据和计算能力,即使匿名数据集也可能带来新风险。
“当你开始积累越来越多信息和处理能力时,人工智能会增加去标识化风险,这是我最大的安全担忧之一。这最终成为数据问题。我们正逐步意识到,数据是人工智能的燃料,”她说,“若数据质量不佳,且不理解其与其他数据的交互方式,你基本等于向引擎中倾倒劣质燃料,输出端将产生大量烟雾和无法理解的噪声。”
奥姆先生补充道,负责任地管理外部供应商和初创企业现已成为网络安全战略的关键部分。MultiCare的做法避免分散投资。
“我们基本避免对人工智能投资采取霰弹枪式策略,”他说,“我们通过风险投资部门MultiCare资本合作伙伴进行投资。这确保我们不仅对接创新解决方案,还兼顾可扩展性并与运营目标保持一致。”
4. 隐私保护数据共享正从理论走向实践
在西北大学,研究人员正证明合作与隐私保护并非互斥。麦克唐纳女士强调了两种已投入应用的技术:隐私保护记录链接和安全多方计算。前者允许机构跨系统连接患者记录,同时排除个人身份信息;后者使组织无需传输原始数据即可共享洞见。
“你拥有多组节点,向网络提问,”她解释道,“回应会返回,但实际数据从未共享。”
她表示,西北大学AI医学研究所已成功在多家医疗机构部署这些技术,标志着安全协作研究的新阶段。
5. 人工智能的下一个前沿将是个性化与预测性护理
MultiCare已利用人工智能定制护理计划,尤其在肿瘤学领域。
“我们主要在肿瘤学实现个性化护理,”奥姆先生说,“这些计划大多源自放射学报告等数据,我们从中获取此前未有效利用的洞见。”
该医疗系统还在测试用于早期癌症检测、快速诊断和护理导航的算法。奥姆表示,自动化提升了运营效率,使护理团队能更专注于患者。但他对将人工智能扩展至生活方式和消费者端提醒持谨慎态度,指出MultiCare正“稳步推进”这些举措,直至风险收益平衡更清晰。
【全文结束】


