想象一下你最私密的个人信息——健康诊断结果、服用的药物、医疗检测报告。现在设想将这些敏感信息上传至网络,这正是OpenAI旗下新服务ChatGPT Health要求用户做的事情。
据ChatGPT称,医疗健康问题是其平台上搜索最频繁的主题之一,因此公司决定推出这款健康工具。ChatGPT Health鼓励用户上传医疗记录和检测结果,并连接智能设备及健身应用,以便整合所有健康数据。OpenAI在新闻稿中强调,该服务将提供个性化健康建议(但非诊断或治疗方案)。
网络安全专家对大规模上传健康记录的行为深表忧虑,核心问题如下:
ChatGPT Health不受HIPAA隐私法规约束
"最令我震惊且担忧的是,OpenAI和ChatGPT并非正规医疗机构,"费城德雷塞尔大学犯罪学与司法研究副教授Robert D’Ovidio指出。他解释道,这意味着该服务不受联邦HIPAA法律保护——该法案要求医疗机构遵守严格的隐私安全规则。"当我们就诊时享有的数据保护,在ChatGPT平台上完全不存在。"
丹佛大学网络安全项目主任Nathan Evans补充道:"ChatGPT可能知晓你患有抑郁症或心脏病,但与医生不同,它没有联邦法律义务确保信息安全性。"他警告称,即便公司声称遵循最高安全标准,若缺乏政府强制力,未来可能改变政策。
健康数据将成网络安全攻击的高价值目标
D’Ovidio承认ChatGPT Health采用数据隔离技术,将健康信息与普通对话分隔处理。但即便如此,"数据泄露风险依然存在"。OpenAI发言人表示,该工具使用"专用加密和隔离技术"保护健康信息。
然而,D’Ovidio强调:"作为研究犯罪学的学者,我认为此类服务相当于在背后画上巨大靶心——健康数据的价值与敏感性不言而喻。"该服务与健康平台b.well的合作更增加了数据风险,"用户需同时担忧OpenAI和b.well的数据安全状况"。
非医疗机构持有健康数据存在长期隐患
专家指出,将健康信息交给非医疗机构存在结构性风险。北卡罗来纳大学夏洛特分校助理教授Cori Faklaris警示:"一旦数据上传便永远无法完全收回,除非文件被彻底销毁——这几乎不可能。"她同时批评OpenAI的盈利动机:"其目标看似改善用户健康,实则可能为商业利益。"
Evans进一步分析:"OpenAI目前虽非破产状态,但仍在持续亏损。虽然公司承诺不用健康数据训练模型,但历史经验表明,数据泄露风险始终存在。"
未在欧洲上线暗示合规缺陷
值得注意的是,ChatGPT Health暂未在欧盟推出。Evans认为这"极具警示意义",因为欧盟GDPR法规拥有"全球最严格的隐私保护标准"。"无法在欧盟使用该服务,很可能因其难以满足这些严苛规则,"他指出,"而美国缺乏同等效力的隐私法,使此类服务更容易落地。"
使用AI健康服务的必备注意事项
专家为考虑使用该工具的用户提出关键建议:
- 审慎评估风险:Faklaris强调"切勿冲动操作",需权衡"获得建议的价值是否大于数据失控的代价"。
- 警惕AI幻觉风险:AI可能生成错误健康信息,"若涉及健康问题,后果可能极其严重"。
- 不可替代真实医疗:该服务仅应作为医生建议的补充,Faklaris重申"绝不能取代实际医疗提供者"。
- 强化账户安全:D’Ovidio建议启用双重验证并定期更换高强度密码。
- 避免多平台共享:Evans警告"向多家AI公司提交数据将显著扩大风险敞口"。
多位专家共同呼吁:健康数据关乎生命安全,用户在上传前必须三思。
【全文结束】


