拒绝医疗中的生成式人工智能不会保护患者——反而会伤害他们Rejecting generative AI in healthcare won’t protect patients – it will harm them | US healthcare | The Guardian

环球医讯 / AI与医疗健康来源:www.theguardian.com美国 - 英语2025-11-15 09:55:20 - 阅读时长2分钟 - 754字
本文由罗伯特·珀尔博士针对埃里克·赖因哈特关于生成式AI医疗风险的论述进行专业回应,指出拒绝该技术不仅无法保障患者安全,反而会加剧美国每年40万人死于误诊和25万人因可预防医疗错误死亡的严峻现状;作者强调生成式AI能提供及时诊疗指导、预警早期症状并填补医生服务空缺,通过临床医生、赋权患者与人工智能的协同作用,可实现更安全、高质量且可及的医疗服务,若因过度担忧而摒弃AI技术,将导致现有医疗问题持续恶化并造成更多可避免的健康损害。
健康生成式人工智能医疗患者保护临床医生医疗错误误诊慢性疾病医疗服务质量可及性协同结合
拒绝医疗中的生成式人工智能不会保护患者——反而会伤害他们

罗伯特·珀尔博士表示,敬业的临床医生、赋权患者与人工智能的结合将带来更安全、更高质量且更易获得的医疗服务。

2025年11月13日 12:33

埃里克·赖因哈特的文章对生成式人工智能(genAI)在医疗领域的风险提出了深思熟虑的担忧(《当我们向算法交出护理时失去什么》,11月9日)。我很感激我的观点被包括在内,我坚持认为“人工智能在医疗中的普及程度将如同听诊器一样”。

赖因哈特正确地指出,在我们以利润为导向、时间受限的医疗系统中部署新技术存在严重风险。但要准确评估生成式AI的风险,我们首先需要承认当今发生的不必要错误和死亡。然后我们必须询问,这项技术是会使这些问题恶化,还是会提高医疗服务的安全性。

在美国,每年有40万人死于误诊。另有25万人死于可预防的医疗错误。患有慢性疾病(影响日常生活的终身疾病)的患者通常每四到六个月才就诊一次,期间没有评估或治疗调整。久而久之,血压持续升高,血糖水平失控,慢性心力衰竭恶化。结果:每年有数十万人发生可避免的心脏病发作、中风、癌症和肾衰竭。

生成式AI可以提供帮助。患者能及时获得可靠的指导,而医生可在不可逆伤害发生前被提醒早期预警信号并调整药物方案。同样,心理健康状况不佳的个体可在夜间焦虑或抑郁加重时获得支持,而此前唯一的选项是急诊室。

生成式AI并非要取代医生,而是在临床医生不可用时填补服务空缺。未来不应被框定为非此即彼(即临床医生或AI),而应是两者兼有。敬业的临床医生、赋权患者与生成式AI的协同结合,将带来比三者单独行动更安全、更高质量且更易获得的医疗服务。

赖因哈特的文章提出了重要问题,我们应该持续深入讨论。但拒绝生成式AI不会保护患者。它会通过放任现有问题恶化而对患者造成实质伤害。

罗伯特·珀尔博士

加利福尼亚州洛斯加托斯市

【全文结束】

大健康
大健康