马斯克支持将Grok作为医疗第二意见
埃隆·马斯克再次敦促公众让其人工智能聊天机器人扮演医生角色。2026年2月17日,马斯克在X平台上转发了DogeDesigner的帖子,赞扬Grok 4.20在解读血液检测和医学影像结果方面的能力。"你只需拍摄医疗数据的照片或上传文件,即可从Grok获取第二意见,"马斯克写道,该帖子在一小时内已获得近50万次浏览。
这一最新推广正值Grok最新版本因其快速准确解析实验室结果而引起广泛关注之际。原帖将Grok 4.20描述为"在分析血液检测方面极其出色且迅速",并指出用户可以上传实验室结果,甚至是磁共振成像(MRI)影像,几乎能立即获得详细分析。这并非马斯克首次倡导这一理念,但此次背书标志着他迄今为止最直接地呼吁普通用户用AI聊天机器人替代或至少补充医生就诊。
医疗主张的一贯模式
马斯克的最新帖子延续了数月来将Grok定位为合法医疗辅助工具的活动。早在2024年10月,马斯克就在X平台上敦促用户"尝试向Grok提交X光片、正电子发射断层扫描(PET)、磁共振成像(MRI)或其他医疗影像进行分析",声称其"已经相当准确,并将变得极其出色"。他还在一档播客节目中声称自己曾向Grok提交个人磁共振成像(MRI)影像,但指出"医生和Grok均未发现任何问题"。2026年1月,一段马斯克表示"已见过实际比医生诊断更好的案例"的视频重新流传。
2025年5月发表在《诊断学》(Diagnostics)期刊的一项同行评审研究表明,Grok在识别病理方面表现优于ChatGPT-4o和谷歌的Gemini,该研究评估了这三种模型对35,711张脑部磁共振成像(MRI)切片的分析能力,尽管研究人员指出所有模型都存在局限性。纽约大学朗格尼医学中心(NYU Langone)放射科副教授劳拉·希科克(Laura Heacock)博士指出,尽管技术能力显然存在,"非生成式人工智能方法在医学影像领域仍表现更佳"。
专家对隐私问题发出警告
尽管对Grok能力充满热情,医疗专业人员和隐私学者却远不乐观。范德堡大学(Vanderbilt University)生物医学信息学教授布拉德利·马林(Bradley Malin)表示:"这是非常个人的信息,你并不确切知道Grok将如何处理它。"宾夕法尼亚大学(University of Pennsylvania)医学伦理学助理教授马修·麦科伊(Matthew McCoy)同样直言不讳,表示他个人不会愿意贡献健康数据,并将此描述为"自担风险"的行为。
隐私风险并非抽象概念。在社交媒体平台上分享的医疗信息不受《健康保险流通与责任法案》(HIPAA)保护,这是保护患者私人健康数据的美国联邦法律,意味着xAI和X平台不受医院或保险公司所受的相同法律义务约束。健康技术公司Avandra Imaging首席执行官瑞安·塔齐(Ryan Tarzy)表示,马斯克的做法存在"众多风险,包括患者身份的意外泄露",因为许多医学影像数据包含嵌入的个人标识符。
你只需拍摄医疗数据的照片或上传文件,即可从Grok获取第二意见
— 埃隆·马斯克 (@elonmusk) 2026年2月17日
准确性问题依然存在
除隐私问题外,Grok的医疗解读准确性也受到质疑。医生在马斯克2024年邀请后测试该聊天机器人时报告,Grok未能识别出"教科书级"的肺结核病例,将锁骨骨折误判为肩关节脱位,在一个广为报道的案例中,还将良性乳腺囊肿的乳腺X光片误认为是睾丸图像。专家警告,此类错误可能导致"不必要的检查或治疗,增加患者负担"。
日益增长的监管审查
Grok在欧洲也面临日益增长的监管审查。2026年2月17日,爱尔兰数据保护委员会宣布对X平台展开正式调查,原因是有关报道称用户被提示使用Grok AI工具生成非自愿的性化图像,包括儿童图像。该调查将审查X平台是否遵守了《通用数据保护条例》(GDPR)关于数据处理、隐私设计和数据保护影响评估的义务。这继2024年8月的一起单独法律行动之后,当时迫使X暂停使用欧盟用户数据训练Grok。
关于人工智能在医疗保健领域的更广泛辩论正在迅速发展,OpenAI已于2026年1月推出了ChatGPT Health功能,这是一个专用服务,允许用户将医疗记录和健康应用程序与明确承诺不使用健康对话来训练其模型相连接。当数百万用户首次接触Grok的医疗功能时,其病毒式传播的吸引力与临床医生和伦理学家所呼吁的谨慎之间的差距,仍然是人工智能医疗竞赛中一个更具决定性的分水岭。
【全文结束】

