OpenAI进军医疗健康领域OpenAI Makes a Play for Healthcare

环球医讯 / AI与医疗健康来源:gizmodo.com美国 - 英语2025-08-28 09:14:17 - 阅读时长4分钟 - 1949字
本文详细报道了OpenAI通过新增医疗团队领导、推出HealthBench基准测试、与肯尼亚医疗机构合作开发AI临床助手等举措全面布局医疗健康领域。同时探讨了医疗AI在诊断辅助和患者赋能方面的潜力与风险,包括斯坦福大学关于诊断准确性的研究数据,以及因ChatGPT错误建议导致溴化物中毒案例引发的伦理争议,揭示了AI医疗应用在技术可靠性、自动化偏见和黑箱机制等方面的重大挑战。
OpenAI医疗健康医疗人工智能AI模型健康业务临床助手GPT-5医疗AI应用诊疗辅助医疗隐患
OpenAI进军医疗健康领域

OpenAI正在全力投入医疗人工智能领域。

Business Insider发现,该公司在其不断壮大的医疗AI团队中新增了两位领导者,并正在招聘更多研究人员和工程师。医疗商业网络工具Doximity的联合创始人兼前首席战略官Nate Gross于6月加入OpenAI,据Business Insider报道,他将领导公司在医疗领域的市场战略。该团队早期目标之一据称是与临床医生和研究人员共同开发新的医疗技术。

OpenAI还聘请了前Instagram产品联合主管Ashley Alexander担任健康业务副总裁,BI报道称她于本周加入公司。公司发言人告诉BI,Alexander团队的目标是为个人消费者和临床医生开发技术产品。随着OpenAI加大医疗行业投入,这些新成员的到来正当其时。

"改善人类健康将成为AGI(人工通用智能)的标志性影响之一,"该公司在5月发布HealthBench(评估AI医疗系统能力的新基准)时的新闻稿中表示。

同时,专为帮助医疗专业人士开发的AI模型正更深入地渗透医疗行业,越来越多的人开始使用ChatGPT来理解自身症状。但正如所有AI技术一样,其在医疗领域的应用也引发担忧。

OpenAI的布局

OpenAI绝非首家押注医疗AI的公司,其进展甚至落后于Palantir、谷歌和微软——这些企业已在该领域深耕多年。尽管OpenAI的医疗AI探索并非全新举措,但过去几个月明显加速。

上月OpenAI宣布与肯尼亚基础医疗提供商Penda Health合作,研究基于大语言模型的临床助手AI Consult——该工具能在患者问诊期间撰写诊疗建议。同样在上月,OpenAI CEO山姆·奥尔特曼出席了白宫"让医疗科技再度辉煌"活动,总统特朗普宣布启动私营部门倡议:通过60家公司(包括OpenAI)的"安全承诺",让美国人可跨应用程序共享医疗记录。该计划将使用对话式AI助手进行患者护理。

在宣布GPT-5约一周前,OpenAI特别强调了该模型的医疗相关能力。"GPT-5是我们迄今在健康相关问题上的最佳模型,"公司在新闻稿中写道。"重要的是,ChatGPT不会取代医疗专业人员——它更像是帮助理解检查结果、在问诊时提出恰当问题、权衡决策方案的合作伙伴。"

该公司表示新模型可"主动标记"潜在健康风险,并根据用户"背景、知识水平和地理位置"调整回答。在新闻稿示例中,GPT-5为尺骨副韧带(UCL)轻度拉伤的高中棒球投手制定了六周康复计划。OpenAI新任应用CEO菲姬·西莫在7月21日的声明中表示:"我最期待AI在医疗领域带来的突破"。

西莫在声明中提到,这种期待源自自己面对"复杂且未被很好理解的慢性疾病"时的医疗系统经历。医疗,特别是美国的医疗体系,确实让患者感到困惑,而OpenAI正押注AI能解决这个问题。

"AI可以解释化验结果,破译医学术语,提供第二诊疗意见,并用通俗语言帮助患者理解治疗选择。它不会取代医生,但能让患者首次站在医疗决策主导位置,"西莫写道。

医疗AI:未来还是隐患?

AI真能彻底改变医疗?有喜有忧。

斯坦福大学去年的研究显示,仅靠ChatGPT的诊断表现优于医生。基于这些初步结果,医疗专用AI或能成为有力的诊疗辅助工具。

部分医疗机构已开始在诊疗中应用专业AI。医疗AI初创公司Open Evidence开发的医学研究训练AI助手,今年早前声称其聊天机器人已被美国四分之一的医生使用。

但随着应用加速,担忧也在增加。部分专家认为早期医疗AI测试并不令人安心,有医学专家完全反对ChatGPT的医疗建议。

虽然某些领域可以容忍AI的错误率,但医疗失误可能致命。斯坦福大学医学与数据科学教授Roxana Daneshjou去年接受《华盛顿邮报》采访时说:"20%的问题响应率,对于医疗系统的实际日常使用来说远远不够。"

典型案例:某无既往病史男子在ChatGPT错误建议下服用溴化物补充剂,最终因溴化物中毒诱发精神疾病送急诊。

AI在医疗决策中可能产生重大错误的另一关键问题源于人类的自动化偏见。使用AI时,无论我们对某个话题了解多深,人们往往更重视模型的建议而非自身判断。

这种偏见因AI的"黑箱"特性变得更加危险:我们不知道它如何得出结论,这使理解错误根源并判断是否信任模型变得困难。

因此,尽管AI确有潜力帮助甚至革新医疗系统,但在安全实现这些变革之前,仍有诸多问题需要解决。

【全文结束】