健康AI是风险的“潘多拉魔盒”,律师如此建议Health AI Is a 'Pandora's Box' of Risk, Lawyer Says. Here's His Advice

环球医讯 / AI与医疗健康来源:www.newsweek.com美国 - 英语2025-08-26 01:16:46 - 阅读时长3分钟 - 1058字
全球顶级AI法律专家Danny Tobey指出,医疗AI的法律风险如同“潘多拉魔盒”,但医疗机构若因噎废食将错失重大机遇。文章系统分析了医疗AI的四大核心风险、构建治理框架的五大支柱,并揭示医疗领导者常忽视的预算规划盲点,为医疗机构提供风险防控与技术应用的平衡之道。
健康医疗AI法律风险监管环境生成式AI风险自研AI防控要点医疗领导者认知盲区医疗AI治理框架
健康AI是风险的“潘多拉魔盒”,律师如此建议

医疗行业高度依赖监管体系,但有一个新兴领域仍处于模糊地带:人工智能技术的应用。DLA Piper律所全球AI与数据分析业务联席主席Danny Tobey医生指出,AI技术虽能为医疗机构创造重大价值,但领导者必须警惕其法律风险。

作为首家设立正式AI业务的国际律所,DLA Piper在多个开创性案件中取得突破——包括成功应诉首批生成式AI"幻觉"案件,以及首个大型保险领域"黑箱"算法歧视集体诉讼案。该机构还为多家医疗机构提供AI合规与内部治理服务。

"医疗AI领域的最佳实践固然重要,但医疗机构若因风险而拒绝采用新技术,才是最大的错误。"Tobey在接受《新闻周刊》采访时表示。

在深度对话中,Tobey揭示了医疗机构应用AI时的关键风险防控要点:

当前医疗AI监管环境呈现"灰色地带",全球各地监管机构(包括FDA、HHS及各州检察长)正密集出台政策法规,形成复杂的监管拼图。医疗机构既要应对监管过度带来的束缚,又需面对部分领域监管缺失的风险。

生成式AI的三大核心风险:

  1. 技术不确定性:其概率性运算与创造性问题解决能力,使安全性和准确性验证变得异常困难
  2. 数据可靠性:必须确保AI调用的源数据可信且实时更新
  3. 临床决策边界:需建立防护机制,禁止AI介入受保护的临床决策领域

关于自研AI与商用方案的风险对比,Tobey强调不存在"万能方案"。未经环境调优的现成解决方案,与缺乏内部资源的自研系统同样危险。关键在于建立贯穿始终的良好治理框架。

医疗机构自研AI的四大防控要点:

  • 建立数据溯源机制,确保AI调用可靠医学资源
  • 定期更新知识库,保障信息时效性
  • 设置响应边界,对临床决策类问题主动拒绝回答
  • 开展用户教育,明确技术局限性

针对医疗领导者的认知盲区,Tobey特别提醒:

  • 预算规划误区:易部署的AI工具常令管理者忽视治理成本。某开源模型虽部署成本低廉,但治理投入可能远超实施费用
  • 治理优先原则:需将安全性验证作为开发流程的核心环节,而非事后补丁

构建医疗AI治理框架的五大支柱:

  1. 董事会及高层的明确治理授权
  2. 专项预算保障安全合规
  3. 多方利益相关者的实质性参与
  4. 贯穿全周期的严格测试机制
  5. 将安全验证纳入设计开发流程

"医疗系统本就充满人为错误与信息孤岛,AI技术恰恰能推动医疗普惠。在推进过程中,我们要做的不是畏惧风险,而是建立科学的防控体系。"Tobey总结道。

【全文结束】

大健康
大健康