I. Glenn Cohen探讨医疗AI的风险与机遇
《监管评论》(The Regulatory Review)对哈佛大学法学院James A. Attwood和Leslie Williams讲席教授、美国国家医学院院士I. Glenn Cohen进行了专访,重点讨论医疗AI的监管框架、临床应用场景及伦理风险。
技术革新与监管挑战
Cohen教授指出,医疗AI已通过环境听写(ambient scribing)、影像诊断等工具深度融入诊疗流程。他特别提到:
- 临床应用场景:当前最普遍的是环境语音记录系统,其次是辅助医生处理患者咨询的智能草稿工具,放射科AI诊断系统已相对成熟。
- 伦理困境:存在数据偏见(如少数族裔群体训练数据缺失)、患者隐私泄露风险(HIPAA合规问题)以及监管真空(FDA仅审查10%医疗AI产品)三大核心挑战。
医疗公平性争议
在问及医疗AI的普惠性时,Cohen教授揭示了结构性不平等:
- 数据代表性偏差:居住在波士顿的中年白人男性比阿肯色州农村的菲律宾裔女性更容易从AI系统获益
- 技术开发导向:资本驱动下AI更侧重"前沿突破"(如提升顶尖医院诊疗水平)而非"技术民主化"(通过AI弥合医疗资源鸿沟)
- 实施能力差异:顶级学术医疗中心具备AI评估能力,而基层医疗机构缺乏相应技术储备
隐私保护的技术悖论
针对医疗AI的隐私风险,Cohen教授提出双重挑战:
- 数据共享风险:医院部署沙盒环境时需平衡使用便捷性与HIPAA合规性,避免医生私自使用未经认证的AI工具
- 数据三角定位:通过跨数据库关联分析可重新识别匿名化数据,这种风险在Netflix用户数据重识别案例中已有实证
偏见治理的前沿实践
Cohen教授系统梳理了医疗AI偏见类型:
- 缺失数据偏见:训练数据集代表性不足
- 测量偏见:临床操作差异反映在数据中(如女性更少获得降脂治疗)
- 标签偏见:经典案例来自《科学》期刊的种族差异化诊断研究
他特别推荐PLOS Digital Health期刊关于AI偏见分类的综述论文,强调需在设计阶段预判偏见,并通过事后审计进行修正。
监管框架的重构思路
针对FDA监管局限,Cohen教授指出:
- 当前90%医疗AI产品未经过FDA审查
- 建议借鉴疫苗伤害赔偿计划,建立无过错责任基金
- 提出医疗机构企业责任理论:若医院缺乏必要监控信息,责任应转移至技术开发者
关于联邦与州立法博弈,他分析:
- 州立法可能导致标准碎片化(如加州AI法案可能引发"加州效应")
- 但有利于制度创新(类比GDPR的"布鲁塞尔效应")
未来展望
尽管存在监管漏洞和伦理风险,Cohen教授仍对医疗AI的普惠价值保持乐观:
- 可突破人类医生的临床经验局限
- 通过服务标准化提升基层医疗质量
- 在资源稀缺地区实现专家级诊疗覆盖
【全文结束】