为了庆祝其新的图像理解能力,埃隆·马斯克鼓励他的追随者分享如MRI扫描和X光片等医疗文件给Grok,他集成到X(前身为Twitter)的AI聊天机器人。“这仍然处于早期阶段,但它已经相当准确,并将变得极其好,”马斯克在上月底的一条推文中写道。“告诉我们Grok在哪里是对的或需要改进的地方。”尽管存在许多令人费解的隐私影响,但他的许多粉丝确实这样做了。有些情况下,他们甚至公开分享了结果。
现在,专家们正在警告不要将此类信息与Grok共享,不仅强调了对聊天机器人的普遍安全担忧,还强调了马斯克公司缺乏透明度的问题。“这是非常个人信息,你并不确切知道Grok会如何处理这些信息,”范德比尔特大学生物医学信息学教授布拉德利·马林在接受《纽约时报》采访时说。
与医生分享医疗信息的人可能会认为这些信息受到《健康保险可移植性和责任法案》(HIPAA)的保护。但是,《纽约时报》指出,联邦法律规定的保护措施仅限于医疗范围,一旦你将其公开发布在社交媒体上,就不再受保护。这与技术公司通过与医院的正式合作获得数据的情况形成鲜明对比,马林说,这些合作通常有详细的协议规定如何存储、共享和使用这些信息。“将个人信息发布到Grok更像是,‘哇!让我们把数据扔出去,希望公司会按照我想要的方式处理它,’”马林告诉《纽约时报》。
不准确的回答也可能使患者处于危险之中。例如,报告指出,Grok错误地将锁骨骨折识别为肩关节脱位。回应马斯克推文的医生发现,该聊天机器人未能识别出“教科书级别的”结核病病例,而在另一个案例中,它将良性囊肿误认为睾丸。
此外,还有关于聊天机器人本身如何使用这些信息的担忧,因为它们底层的大语言模型依赖于与用户的对话来微调其功能。这意味着你告诉它们的任何信息都可能用于训练聊天机器人,考虑到它们倾向于产生幻觉,无意中泄露敏感信息的风险并非不可想象。在这方面,X和Grok开发者的xAI的隐私政策令人不满。例如,后者的政策声称不会将用户数据出售给第三方,但会与“相关公司”共享,据《纽约时报》报道。
然而,有足够的理由怀疑这种说法在实践中是否得到严格执行,因为马斯克大胆地鼓励人们提交医疗文件,即使xAI的政策声明“不旨在收集敏感个人信息”,包括健康和生物特征数据。宾夕法尼亚大学医学伦理和卫生政策助理教授马修·麦考伊表示,马斯克的公司可能有未公开的健康信息保护措施。“但作为个人用户,我会感到舒适地贡献健康数据吗?绝对不,”麦考伊告诉《纽约时报》。
(全文结束)


