医疗行业高度依赖监管体系,但有一个新兴领域仍处于模糊地带:人工智能技术的应用。DLA Piper律所全球AI与数据分析业务联席主席Danny Tobey医生指出,AI技术虽能为医疗机构创造重大价值,但领导者必须警惕其法律风险。
作为首家设立正式AI业务的国际律所,DLA Piper在多个开创性案件中取得突破——包括成功应诉首批生成式AI"幻觉"案件,以及首个大型保险领域"黑箱"算法歧视集体诉讼案。该机构还为多家医疗机构提供AI合规与内部治理服务。
"医疗AI领域的最佳实践固然重要,但医疗机构若因风险而拒绝采用新技术,才是最大的错误。"Tobey在接受《新闻周刊》采访时表示。
在深度对话中,Tobey揭示了医疗机构应用AI时的关键风险防控要点:
当前医疗AI监管环境呈现"灰色地带",全球各地监管机构(包括FDA、HHS及各州检察长)正密集出台政策法规,形成复杂的监管拼图。医疗机构既要应对监管过度带来的束缚,又需面对部分领域监管缺失的风险。
生成式AI的三大核心风险:
- 技术不确定性:其概率性运算与创造性问题解决能力,使安全性和准确性验证变得异常困难
- 数据可靠性:必须确保AI调用的源数据可信且实时更新
- 临床决策边界:需建立防护机制,禁止AI介入受保护的临床决策领域
关于自研AI与商用方案的风险对比,Tobey强调不存在"万能方案"。未经环境调优的现成解决方案,与缺乏内部资源的自研系统同样危险。关键在于建立贯穿始终的良好治理框架。
医疗机构自研AI的四大防控要点:
- 建立数据溯源机制,确保AI调用可靠医学资源
- 定期更新知识库,保障信息时效性
- 设置响应边界,对临床决策类问题主动拒绝回答
- 开展用户教育,明确技术局限性
针对医疗领导者的认知盲区,Tobey特别提醒:
- 预算规划误区:易部署的AI工具常令管理者忽视治理成本。某开源模型虽部署成本低廉,但治理投入可能远超实施费用
- 治理优先原则:需将安全性验证作为开发流程的核心环节,而非事后补丁
构建医疗AI治理框架的五大支柱:
- 董事会及高层的明确治理授权
- 专项预算保障安全合规
- 多方利益相关者的实质性参与
- 贯穿全周期的严格测试机制
- 将安全验证纳入设计开发流程
"医疗系统本就充满人为错误与信息孤岛,AI技术恰恰能推动医疗普惠。在推进过程中,我们要做的不是畏惧风险,而是建立科学的防控体系。"Tobey总结道。
【全文结束】


