谷歌的"夜莺计划"正在使用患者医疗记录进行AI训练——但患者完全不知情。这项与Ascension健康系统的合作项目,秘密收集了包含患者姓名、出生日期、检测结果和治疗史的病历数据,且未对这些数据进行任何匿名化处理。
关键点在于:美国21个州的Ascension医疗系统患者,其私人医疗信息已通过HIPAA法案下的商业合作条款,合法传输至谷歌服务器。整个过程既未提供退出选项,也未获得患者知情同意,患者被完全蒙在鼓里。
"工具"分类规避FDA安全审查
谷歌通过巧妙的监管套利,将医疗AI定义为"工具"而非医疗设备。这种分类差异导致用于辅助癌症治疗决策和药物相互作用分析的AI系统,所受监管严格度甚至低于医生办公室里的血压计——医疗设备需经过严格临床试验才能获批,而"工具"只需保证基础功能性。
这种监管套利相当于让未经碰撞测试的自动驾驶系统直接上路,区别在于"事故"将发生在患者体内。更令人担忧的是,医疗行业广泛应用的AI系统普遍存在以下问题:
- 肿瘤检测误判
- 药物相互作用警报失效
这些不是普通的软件漏洞,错误的AI诊断可能导致不必要的化疗、延误关键治疗或让医生忽视真实威胁。患者的健康正成为实验性AI的训练场,这些系统通过数据模式"学习"医学知识,而非经过正规医学教育。
医疗AI的准确率危机
尽管"夜莺计划"的具体错误率未公开,但整个医疗AI领域都存在严重准确率问题。学术研究已证实诊断AI存在以下缺陷:
- 皮肤癌识别系统出现重大误判
- 眼科AI对糖尿病视网膜病变的漏诊率高达10%
- 药物相互作用预警系统的假阳性率超30%
当谷歌用"AI芯片赋能医疗"作为宣传口号时,患者实际上成为了没有知情权的实验对象。这些技术在缺乏必要安全措施的情况下推进,最终可能危及患者生命安全。
【全文结束】