近期的人工智能技术虽能胜任餐厅推荐和邮件撰写等任务,但在医疗建议领域已显现出明显缺陷。
典型案例显示:一名男子按照聊天机器人提供的健康方案调整饮食后,引发罕见毒性反应被迫入院治疗。
患者为改善健康状况决定减少氯化钠(食盐)摄入,通过ChatGPT咨询替代方案。OpenAI的聊天机器人推荐使用溴化钠(sodium bromide),该男子据此网购相关产品并纳入日常饮食。
尽管溴化钠确可作为氯化钠替代品,但主要应用场景为温泉消毒等工业用途而非食品调味。然而AI未能说明这一关键性差异。
三个月后患者出现严重偏执型妄想,坚信邻居试图投毒。入院24小时内症状迅速恶化,出现听觉与视觉幻觉,并发生出逃行为,最终被强制实施精神病监护。
经抗精神病药物治疗稳定后,患者透露其遵循AI指导的饮食方案。结合血液检测显示溴化物浓度高达1700mg/L(正常值低于10mg/L),医疗团队确诊其发生溴中毒(bromism)。
该病症曾是20世纪初期常见疾病,占同期精神科入院病例的8%,后因含溴药物逐步淘汰而消失。患者经三周专项治疗后顺利出院。
研究者指出:"ChatGPT等AI系统可能生成科学谬误,缺乏关键性结果分析能力,最终加剧错误信息传播。人类专家绝不会在食盐替代建议中推荐溴化钠。"
该案例研究已发表于《内科医学年鉴:临床病例》(Annals of Internal Medicine: Clinical Cases)期刊。
【全文结束】


