在与像 ChatGPT 这样的在线聊天机器人交流时,您需要极其谨慎,一个简单的规则可以保障您的安全。不要因为常见错误而冒着身份被盗或银行账户被入侵的风险。
太阳报采访了一位顶级安全专家,他表示使用人工智能聊天机器人需要谨慎。人工智能机器人无处不在,甚至被内置在 WhatsApp 和 Facebook Messenger 等应用程序中,因此了解应该和不应该对它们说什么很重要。
网络安全专家斯图尔特·格林(Stuart Green)警告说:“把 ChatGPT 和类似的人工智能工具想象成你在街上遇到的陌生人。你可能会觉得向他们询问方向或下一班公交车何时到达是没问题的,但你不会分享个人细节或家庭住址。人工智能系统通常具有类似人类的界面,因此将它们当作人来对待很重要——只是一个您不完全信任,并怀疑可能会与下一个遇到的人分享您秘密的人。”
有特定类型的信息您不应该发送给聊天机器人。斯图尔特在 Check Point Software 担任云安全架构师,他告诉太阳报,避免分享所谓的“PII”至关重要。这个鲜为人知的三个字母的术语代表“个人可识别信息”。
“这包括您的全名、家庭住址、电子邮件地址、电话号码或任何形式的身份证明,如护照详细信息,”斯图尔特告诉我们。“分享 PII 会增加身份盗窃、曝光个人信息或未经授权访问您个人账户的风险。即使平台对您的数据进行了匿名化处理,也始终存在数据泄露的可能性。”
当然,您不应该发送给任何人工智能聊天机器人的信息远不止 PII。
在财务信息方面也同样重要,要避免交出。聊天机器人很像人类,极具说服力,所以很容易被人工智能欺骗,尤其是被犯罪分子创建或操纵的人工智能。
斯图尔特说:“信用卡号码、银行账户详细信息和密码也应该保密。在网上分享财务数据会使您面临欺诈、盗窃或诈骗的风险,如果这些信息被泄露的话。同样重要的是,不要分享您的登录凭据,如用户名、密码或双因素身份验证代码。这样做可能会导致账户被接管、数据被盗或未经授权的交易。”
“同样,敏感的健康或医疗数据也应该保密,包括您的病史、处方、诊断或心理健康信息。如果这类数据被泄露,可能会导致隐私侵犯、歧视或被恶意行为者滥用。”
太阳报的技术专家肖恩·基奇(Sean Keach)给出了以下建议……
人工智能可以是您的朋友、值得信赖的同事、客户支持助手。实际上,它几乎可以是任何东西。人工智能聊天机器人现在非常像人类,极具说服力。
但比以往任何时候都更重要的是要记住,它们不是人类。它们肯定不是您的朋友。它只是假装成人类的代码行,所以您需要像对待完全陌生人的消息一样对待它。
不要提供个人信息,甚至您的全名也不行。没有人能保证您消息的绝对安全,即使您使用的是来自大型且受尊敬的科技公司的工具。有很多方法可以让骗子入侵您的聊天机器人消息,包括入侵您的设备甚至人工智能应用程序本身。
所以放心使用聊天机器人来帮助您完成事情,但要注意您不知道这些消息最终会流向何处。
我们在这个疯狂的人工智能之旅中还处于早期阶段,所以谨慎总比后悔好。记住:如果您要向人工智能发送消息,问问自己是否愿意将相同的文本发送给一个完全陌生的人。如果答案是否,就不要发送。


