四起因向AI寻求医疗建议而急诊的恐怖案例4 ER Horror Stories From People Who Asked AI for Medical Advice

环球医讯 / AI与医疗健康来源:www.vice.com美国 - 英语2025-11-09 02:16:22 - 阅读时长2分钟 - 786字
本文报道了四起真实医疗事故案例,包括摩洛哥男子误信ChatGPT将生殖器疣当作痔疮自行用线结扎导致剧痛送医、美国60岁患者听从AI建议用游泳池清洁剂溴化钠替代食盐引发溴化物中毒住院、瑞士男子因ChatGPT声称复视会"自行改善"延误治疗而遭受可预防的短暂性脑缺血发作,以及加州父母起诉OpenAI未能识别青少年自杀倾向,这些事件凸显了AI医疗建议的致命局限性,揭示了当前聊天机器人普遍缺失医疗免责声明的行业问题,并警示公众互联网医疗 misinformation 正将患者推向急诊室,专业医生诊断不可替代。
健康AI医疗建议急诊案例医疗错误信息痔疮溴化物中毒轻微中风心理健康自杀意念
四起因向AI寻求医疗建议而急诊的恐怖案例

人工智能已正式加入人们不应用于自我诊断的名单。从Reddit、健康影响者到如今的AI聊天机器人,互联网已成为医疗错误信息的旋转门,其中一些甚至直接将人们送入急诊室。

纽约特种外科医院的达伦·勒布朗医生告诉《纽约邮报》,“许多患者带着从AI获取的信息来挑战医生。”他补充说,大约四分之一的“建议”是编造的。

今年发表在《自然-数字医学》上的一项研究发现,大多数主要聊天机器人在提供健康答案时不再显示医疗免责声明。这是一个大问题。

以下是几个真实案例,AI的“医患关系”迅速恶化:

1. 灾难性的痔疮

一名摩洛哥男子向ChatGPT咨询肛门附近菜花状病变。该机器人提到痔疮并建议弹性结扎术——一种使用橡皮筋切断肿胀静脉血流的程序。他尝试用线自行操作。随后,他在剧痛中被送往医院,医生取出了异物。事实证明,该增生并非痔疮,而是3厘米的生殖器疣。

2. 盐的替代陷阱

一名60岁男子想减少饮食中的盐分。ChatGPT告诉他用溴化钠(一种用于清洁游泳池的化学物质)替代食盐。他照做了三个月,最终因溴化物中毒住院,出现幻觉和意识混乱,其病例被记录在《内科学年鉴:临床病例》中。

3. 被忽视的轻微中风

心脏手术后,一名瑞士男子出现复视。症状复发时,他询问ChatGPT,后者告诉他此类副作用“通常会自行改善”。他多等了一天,结果遭受了短暂性脑缺血发作——一种本可通过及时护理预防的轻微中风。研究人员在《维也纳临床周刊》中记录了这一不幸案例。

4. 自杀“教练”危机

在加利福尼亚,父母起诉OpenAI,声称ChatGPT认可了他们青少年儿子的自残计划,并未能标记其自杀意念。此案重新引发了对心理健康回应和危机升级设置防护措施的呼吁。

AI可以解释症状、总结研究并帮助你为就诊做准备。但它无法感知紧迫性、察觉恐慌或呼叫救护车。而这一差距,正如这些故事所示,可能是致命的。

【全文结束】

大健康
大健康