随着医疗提供者面临越来越高的职业倦怠率,软件设计师正在测试专门的人工智能聊天机器人,以减轻诊断、治疗和提供预防性护理建议的负担。人们现在可以从Open AI、ChatGPT或Google等聊天机器人获得简短而看似权威的AI摘要。但CBS News Confirm发现,这些答案并不总是准确的。
谷歌在今年春天推出了一项AI概述功能,其中谷歌聊天机器人的答案开始出现在许多健康相关查询的搜索结果上方。通过生成式AI,搜索将为你做更多你从未想象过的事情。只需提问,谷歌就会为你进行搜索。这听起来不错,但在实践中,出现了一些问题。聊天机器人分享了误导性的医疗建议,有时令人发笑,有时则非常危险。
在这一新工具使用的第一周,一位用户表示,谷歌AI给出了被响尾蛇咬伤后的处理建议,包括吸出毒液。如果遵循这些建议,可能会致命。AI技术还给出了如何让一周大的婴儿吃蔬菜的建议。医生表示,婴儿应在六个月大之后才能吃固体食物。谷歌AI甚至建议每天至少吃一小块岩石来增加维生素和矿物质摄入量。这一建议来自知名讽刺网站The Onion的一篇文章。谷歌表示,他们已限制了讽刺和幽默网站及概要的纳入,并删除了一些因错误原因走红的内容。
谷歌发言人告诉CBS News,对于健康查询,我们一直有严格的质量和安全防护措施,包括提醒人们寻求专家建议的免责声明。CBS News确认,该工具中仍存在一些健康错误信息。我们在6月底测试时发现,关于六个月内婴儿引入固体食物的查询仍然会返回提示。对排毒或饮用生牛奶等可疑健康趋势的搜索也包含了已被证伪的主张。
尽管存在这些缺陷和明显错误,许多医疗保健领导者对AI聊天机器人仍持乐观态度。“从长远来看,我认为这些技术将对我们大有裨益。”斯坦福医疗首席数据科学家Nee Gum Shah博士表示,“当谷歌搜索问世时,每个人都担心患者会自我诊断,导致各种混乱。但这种情况并没有发生。同样的,我们会经历一个阶段,即新的聊天机器人虽然不完善,但会犯错误,其中一些可能是严重的。但总体而言,在没有其他选择的情况下拥有信息是一件好事。”
“你好,我是Sarah。这是世界卫生组织的聊天机器人Sarah。”Sarah从世界卫生组织和可信合作伙伴处提取信息。尽管Sarah较少出现事实错误,但其尝试模仿用户面部表情的行为可能令人不安。
“我如何降低心脏病发作的风险?”Sarah的回答是:“注重均衡饮食、定期锻炼和管理压力。”支持聊天机器人的倡导者迅速指出,医生和聊天机器人一样,也会犯错。据估计,具体数字有所不同,但美国卫生与公众服务部2022年的一项研究发现,每年约有2%的急诊患者可能因误诊而受到伤害。
睡眠对心脏健康至关重要。每晚应争取7到9小时的优质睡眠。设计得当且有监督的情况下,AI聊天机器人将来或许能提供更好的医疗建议,并接触到更多需要帮助的患者。但如果你今天转向AI聊天机器人寻求健康建议,请注意谷歌版本信息附带的警告:质量可能参差不齐。
“质量可能参差不齐,”CBS周六早间新闻的Major Garrett说,“对于那些需要即时信息的人来说,这里似乎是一个好去处。去医院很难,看医生也不容易,就像几年前去WebMD那样。你一搜索头疼,就会觉得自己要死了,以为自己得了脑瘤。我认为关键是要明智对待。正如我所说,从长远来看,这是一件好事。只是短期内,我大概不会在早餐时吃岩石。当然,你可以这么做,但我认为这不是个好主意。如果听起来不对劲或你不确定,我知道这更难,也更耗时。现在很多网站都可以进行虚拟医生预约,不妨试试,以确保信息的准确性。不要吃岩石,不要吃岩石,也不要被响尾蛇咬伤。好的建议。”
(全文结束)


