你可能错过的关于GPT-5的一切

What you may have missed about GPT-5

美国英语科技
新闻源:MIT Technology Review
2025-08-12 20:10:56阅读时长3分钟1129字
GPT-5医疗建议AI医疗能力HealthBench评估体系诊断错误率AI医疗风险AI医疗责任法律空白溴中毒

在"通用智能"目标仍遥不可及的背景下,OpenAI正将战略重心转向特定应用场景的推广。医疗建议成为其最具争议的试验场。当首席执行官山姆·奥尔特曼在GPT-5发布前声称其能力让他"相对AI而言感到无用"时,他将开发过程比作当年原子弹研发者所承受的重量级压力。

在科技巨头们竞相开发功能趋同的模型时,这款被寄予厚望的新品本应展现AI前沿突破,成为通向"人工通用智能"(AGI)的关键里程碑。然而从实际反馈看,该模型远未达到预期效果。

用户已发现GPT-5的回答中存在明显错误,这与奥尔特曼发布会宣称的"随时可成为任领域博士级专家"的承诺相悖。测试者还发现其"智能推理模式选择"功能存在缺陷——该功能本应自动判断用户提问复杂度,切换使用精密推理模型或快速响应模型。奥尔特曼已承认此功能削弱了用户控制权。值得肯定的是,新版确实改善了ChatGPT过度迎合用户的倾向,减少了夸张性赞誉。

正如本刊记者格蕾丝·哈克ins指出,此次更新更像产品界面优化(如对话交互体验提升),而非底层技术的突破性进展。这种战略转向折射出整个行业的现状:当通用智能突破受阻时,企业选择将现有技术向特定应用场景渗透,即便早期证据显示这些应用效果存疑,比如宣称AI可替代人类程序员。

这种战略调整的潜在原因在于技术突破未达预期,大型语言模型的能力提升仍局限于边际改进。这迫使AI企业采取务实策略:基于现有技术开发生态。

GPT-5发布最引人注目的动向,是OpenAI对医疗建议场景的强力推进。早期ChatGPT对医疗问题持谨慎态度,会主动提示"我不是医生"并拒绝回答敏感问题。但这种警示正在消失,最新模型不仅解读X光片和乳腺钼靶检查,还会通过追问引导诊断方向。

2025年5月OpenAI推出"HealthBench"评估体系,以医生意见为基准测试AI医疗能力。7月公布的肯尼亚医生研究显示,在AI辅助下诊断错误率显著下降。GPT-5发布会上,工程师米隆夫妇现身说法,展示癌症患者如何通过上传活检报告让AI解读专业术语,并辅助决策放疗方案。

这种战略转向潜藏重大风险。用辅助专业医生的证据,去论证非医学背景人群自主使用AI的合理性,存在逻辑断层。更危险的是,当聊天机器人不再频繁提示咨询医生时,用户很可能直接采信AI建议而不复核。

《内科医学年鉴》在GPT-5发布前两天披露的案例极具警示意义:某男子因ChatGPT建议停止摄盐并过量摄入溴化物,导致美国已罕见的溴中毒,险些丧命。这凸显AI医疗责任的法律空白。

"当医生因偏见或失误提供错误建议,患者可起诉医疗过失获得赔偿。"北卡罗来纳大学夏洛特分校数据科学与哲学副教授达米安·威廉姆斯指出,"但如果ChatGPT因训练数据偏见或系统性'幻觉'产生错误医疗建议,受害者将面临救济困境。"

【全文结束】

声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。

本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。