在过去几周里,社交平台X的用户已经开始向Grok提交X光片、MRI、CT扫描和其他医疗影像,请求诊断。原因在于:X的所有者埃隆·马斯克提出了这一建议。
“这仍处于早期阶段,但它已经相当准确,并将变得极其出色,”马斯克在一篇帖子中说。他的希望是,如果有足够多的用户向AI提供他们的扫描结果,它最终将能够非常准确地解读这些图像。患者可以更快地获得结果,而无需等待门户网站的消息,或者使用Grok作为第二意见。
一些用户分享了Grok的错误诊断,例如将锁骨骨折误诊为肩关节脱位。其他用户则对其表现表示赞赏:“让它检查了我的脑瘤,还不错,”一位用户在附带的脑部扫描中写道。一些医生也参与其中,出于好奇测试聊天机器人是否能确认他们的发现。
尽管谷歌的Gemini或OpenAI的ChatGPT没有类似的公开呼吁,人们也可以向这些工具提交医疗影像。
决定将像结肠镜检查结果这样敏感的信息与AI聊天机器人共享,令一些医疗隐私专家感到震惊。“这是非常个人的信息,你并不确切知道Grok会如何处理这些信息,”范德比尔特大学生物医学信息学教授布拉德利·马林说,他研究过医疗保健领域的机器学习。
当美国人向医生或患者门户分享他们的医疗信息时,这些信息受到美国《健康保险可移植性和责任法案》(HIPAA)的保护,该联邦法律防止未经同意分享个人健康信息。但这项法律仅适用于某些实体,如医生办公室、医院和健康保险公司,以及他们合作的一些公司。
换句话说,你在社交媒体账户或其他地方发布的内容不受HIPAA保护。这就像告诉你的律师你犯了一项罪行,而不是告诉你的遛狗者;前者受律师-客户特权保护,后者可以告知整个社区。
相比之下,当科技公司与医院合作获取数据时,会有详细的协议规定数据的存储、共享和使用方式,马林说。“将个人信息发布到Grok更像是,‘嘿!我们把数据扔出去,希望公司会按我想要的方式处理它们’,”马林说。
X没有回应置评请求。在其隐私政策中,该公司表示不会将用户数据出售给第三方,但会与“相关公司”共享。尽管马斯克邀请用户分享医疗影像,但该政策还指出,X不打算收集敏感的个人信息,包括健康数据。
宾夕法尼亚大学医学伦理与卫生政策助理教授马修·麦考伊指出,围绕上传到Grok的健康信息可能有非常明确的保护措施,但公司尚未公开描述这些措施。“但作为一个个体用户,我会愿意贡献健康数据吗?绝对不会,”他说。
重要的是要记住,你在线足迹的各个部分会被共享和出售——例如你购买的书籍或在网站上停留的时间。这些都是拼图的一部分,公司可以利用这些信息来实现各种目的,如定向营销。
考虑一下,显示早期阿尔茨海默病迹象的PET扫描成为你在线足迹的一部分,未来雇主、保险公司甚至房主协会都可能找到这些信息。美国法律如《残疾人法案》和《遗传信息非歧视法》可以提供基于某些健康因素的歧视保护,但有一些实体,如长期护理保险和人寿保险计划,不在这些法律的保护范围内。专家指出,即使非法,其他形式的健康相关歧视仍然会发生。
不完美的答案对于纯粹实验工具的人可能是可以接受的。但获得错误的健康信息可能导致不必要的测试或其他昂贵的治疗,约翰霍普金斯大学机器学习与医疗保健实验室主任苏奇·萨里亚说。
训练AI模型以产生关于个人健康的准确结果需要高质量和多样化的数据,以及医学、技术、产品设计等领域的深厚专业知识,萨里亚说,她还是Bayesian Health公司的创始人,该公司开发用于医疗环境的AI工具。“任何低于这个标准的情况都像是业余化学家在水槽里混合成分,”她说。
尽管如此,AI在改善患者体验和医疗保健结果方面具有潜力。AI模型已经能够读取乳房X光片并分析患者数据以寻找临床试验的候选人。
一些好奇的人可能了解隐私风险,但仍愿意上传数据以支持这一使命。马林称这种做法为“信息利他主义”。“如果你强烈认为这些信息应该公开,即使你没有任何保护措施,那就去吧,”他说,“但买家需谨慎。”
(全文结束)


