为什么你不应该向AI寻求医疗建议以及其他9件不要告诉聊天机器人的事情Why you should never ask AI medical advice and 9 other things to never tell chatbots

环球医讯 / AI与医疗健康来源:www.yahoo.com美国 - 英语2024-12-26 23:00:00 - 阅读时长2分钟 - 764字
本文探讨了人们不应该向AI聊天机器人寻求医疗建议的原因,并列举了其他九种不应与聊天机器人分享的信息,强调保护个人隐私的重要性,特别是医疗数据和敏感个人信息。
AI医疗建议聊天机器人健康数据HIPAA隐私敏感信息网络安全个人数据机密信息
为什么你不应该向AI寻求医疗建议以及其他9件不要告诉聊天机器人的事情

聊天机器人看似是值得信赖的智能助手,但专家警告不要与这些由AI驱动的代理过于亲密。克利夫兰诊所最近的一项调查数据显示,五分之一的美国人曾向AI寻求健康建议;而Tebra去年发布的调查统计数据表明,约有25%的美国人更倾向于使用聊天机器人而不是进行心理治疗。

然而,专家们警告用户不要过度分享与AI聊天机器人的信息,尤其是在涉及医疗信息时。据《今日美国》报道,人们应避免向AI透露医疗和健康数据,因为AI并不遵守《健康保险可携性和责任法案》(HIPAA)。

由于像ChatGPT这样的聊天机器人不符合HIPAA规定,因此不应在临床环境中用于总结患者病历,也不应接触敏感数据。如果你需要快速答案,务必省略可能被利用的姓名或其他身份信息,《今日美国》报道指出。

该报还警告说,明确内容和非法建议是禁区,上传他人信息也是不可取的。“记住:你写给聊天机器人的任何内容都可能被用来对付你。”网络安全公司Kaspersky的Stan Kaminsky此前告诉《太阳报》。

登录凭证、财务信息、安全问题的答案以及你的姓名、电话号码和地址等敏感信息也绝不应与AI聊天机器人共享。这些敏感数据可能会被恶意行为者用来对付你。

如果你必须询问具体问题,专家建议尽量省略尽可能多的个人数据,例如使用星号或“已删除”来代替。Kaminsky继续说道:“不要在与AI的对话中输入密码、护照或银行卡号、地址、电话号码、姓名或属于你、你的公司或客户的其他个人数据。”

“你可以用星号或‘REDACTED’替换这些信息。”关于公司的机密信息也是严重的隐私错误,“可能有强烈的诱惑将工作文件上传到聊天机器人以获取执行摘要,”Kaminsky说。“然而,不小心上传多页文档可能会泄露机密数据、知识产权或商业秘密,如新产品的发布日期或整个团队的工资单。”


(全文结束)

大健康
大健康