聊天机器人看似是值得信赖的智能助手,但专家警告不要与这些由AI驱动的代理过于亲密。克利夫兰诊所最近的一项调查数据显示,五分之一的美国人曾向AI寻求健康建议;而Tebra去年发布的调查统计数据表明,约有25%的美国人更倾向于使用聊天机器人而不是进行心理治疗。
然而,专家们警告用户不要过度分享与AI聊天机器人的信息,尤其是在涉及医疗信息时。据《今日美国》报道,人们应避免向AI透露医疗和健康数据,因为AI并不遵守《健康保险可携性和责任法案》(HIPAA)。
由于像ChatGPT这样的聊天机器人不符合HIPAA规定,因此不应在临床环境中用于总结患者病历,也不应接触敏感数据。如果你需要快速答案,务必省略可能被利用的姓名或其他身份信息,《今日美国》报道指出。
该报还警告说,明确内容和非法建议是禁区,上传他人信息也是不可取的。“记住:你写给聊天机器人的任何内容都可能被用来对付你。”网络安全公司Kaspersky的Stan Kaminsky此前告诉《太阳报》。
登录凭证、财务信息、安全问题的答案以及你的姓名、电话号码和地址等敏感信息也绝不应与AI聊天机器人共享。这些敏感数据可能会被恶意行为者用来对付你。
如果你必须询问具体问题,专家建议尽量省略尽可能多的个人数据,例如使用星号或“已删除”来代替。Kaminsky继续说道:“不要在与AI的对话中输入密码、护照或银行卡号、地址、电话号码、姓名或属于你、你的公司或客户的其他个人数据。”
“你可以用星号或‘REDACTED’替换这些信息。”关于公司的机密信息也是严重的隐私错误,“可能有强烈的诱惑将工作文件上传到聊天机器人以获取执行摘要,”Kaminsky说。“然而,不小心上传多页文档可能会泄露机密数据、知识产权或商业秘密,如新产品的发布日期或整个团队的工资单。”
(全文结束)


