谷歌“夜莺计划”:制造致命医疗错误的秘密人工智能Google’s “Project Nightingale”: The Secret AI That Makes Medically Deadly Mistakes

环球医讯 / AI与医疗健康来源:www.yahoo.com美国 - 英语2025-09-17 01:17:37 - 阅读时长2分钟 - 825字
本文揭露谷歌与Ascension健康系统合作的"夜莺计划",未经患者同意收集数百万份含真实身份的病历数据训练AI,并通过规避医疗设备监管制造致命医疗风险。揭示医疗AI在肿瘤检测、药物相互作用等领域存在严重误判问题,指出当前监管体系无法有效管控人工智能在医疗领域的应用风险。
谷歌夜莺计划医疗AI患者健康医疗数据隐私FDA安全审查AI准确率危机肿瘤检测误判药物相互作用警报失效
谷歌“夜莺计划”:制造致命医疗错误的秘密人工智能

谷歌的"夜莺计划"正在使用患者医疗记录进行AI训练——但患者完全不知情。这项与Ascension健康系统的合作项目,秘密收集了包含患者姓名、出生日期、检测结果和治疗史的病历数据,且未对这些数据进行任何匿名化处理。

关键点在于:美国21个州的Ascension医疗系统患者,其私人医疗信息已通过HIPAA法案下的商业合作条款,合法传输至谷歌服务器。整个过程既未提供退出选项,也未获得患者知情同意,患者被完全蒙在鼓里。

"工具"分类规避FDA安全审查

谷歌通过巧妙的监管套利,将医疗AI定义为"工具"而非医疗设备。这种分类差异导致用于辅助癌症治疗决策和药物相互作用分析的AI系统,所受监管严格度甚至低于医生办公室里的血压计——医疗设备需经过严格临床试验才能获批,而"工具"只需保证基础功能性。

这种监管套利相当于让未经碰撞测试的自动驾驶系统直接上路,区别在于"事故"将发生在患者体内。更令人担忧的是,医疗行业广泛应用的AI系统普遍存在以下问题:

  • 肿瘤检测误判
  • 药物相互作用警报失效

这些不是普通的软件漏洞,错误的AI诊断可能导致不必要的化疗、延误关键治疗或让医生忽视真实威胁。患者的健康正成为实验性AI的训练场,这些系统通过数据模式"学习"医学知识,而非经过正规医学教育。

医疗AI的准确率危机

尽管"夜莺计划"的具体错误率未公开,但整个医疗AI领域都存在严重准确率问题。学术研究已证实诊断AI存在以下缺陷:

  • 皮肤癌识别系统出现重大误判
  • 眼科AI对糖尿病视网膜病变的漏诊率高达10%
  • 药物相互作用预警系统的假阳性率超30%

当谷歌用"AI芯片赋能医疗"作为宣传口号时,患者实际上成为了没有知情权的实验对象。这些技术在缺乏必要安全措施的情况下推进,最终可能危及患者生命安全。

【全文结束】