亚当·罗德曼(Adam Rodman)在遇到难题时会使用ChatGPT。
这位内科医生兼哈佛医学院教授向患者坦诚说明这一做法,并强调避免输入私人医疗信息。
“有一次我使用时,患者本人亲自输入并为聊天机器人提供额外信息,”罗德曼说,“这形成了我们三人与ChatGPT的三方对话。”
罗德曼是向《商业内幕》(Business Insider)透露选择何种AI工具面临艰巨任务的十余位医疗专业人员之一。许多人使用ChatGPT等通用模型,但这些工具可能不够专业化——或会产生错误答案的“幻觉”。
另一些人则选择引入医疗科技初创企业。根据Rock Health的数据,2025年上半年,启用AI的医疗初创企业获得了62%的数字健康风投资金。同期,数字健康公司获得的风投资金达64亿美元,高于2024年上半年的60亿美元。
由于生成式AI仍处于早期阶段,许多工具尚未经过重大实地测试,导致众多医院在内部广泛进行试点。这些测试聚焦于医疗伦理问题——以及工具本身是否真正有用。
许多医疗专业人员仍选择完全不接触该技术。根据Elsevier Health的调查,48%的医生报告在工作中使用AI工具,但这一数字正迅速增长——前一年仅为26%。
受访医生普遍认同一点:几乎所有人均使用AI设备自动化工作中最重复的部分——记录笔记。除此之外,他们对AI的适用领域——以及安全性——看法差异很大。
许多医生使用ChatGPT——不仅限于撰写邮件。
AI巨头正布局医疗市场。在最近的美联储会议上,OpenAI首席执行官萨姆·阿尔特曼(Sam Altman)称ChatGPT是“比全球大多数医生更优秀的诊断专家”。谷歌和微软已推出专业医疗模型;微软的模型在解决案例研究时被其AI首席执行官宣称比人类诊断专家准确率高出4倍。
多数与《商业内幕》交谈的医生在实践中使用通用聊天机器人。部分人采用无法基于数据训练的企业级模型,另一些人表示避免向系统输入任何敏感信息。
约翰·布朗斯坦(John Brownstein)表示,作为波士顿儿童医院(Boston Children's Hospital)首席创新官,该院推出了符合HIPAA法规的ChatGPT,以保护健康信息。目前近30%的员工正在使用它。他列举了部分应用场景:生成推荐信、定量数据分析或梳理内部文件。
布朗斯坦也与AI初创企业合作,但对这些工具的要求日益提高。
在AI编码工具时代,过去需要整支工程师团队完成的工作如今仅需少数人即可实现——因此布朗斯坦表示医院能自行开发内部版本。部分医疗科技初创企业也试图将AI作为“诱饵”,他指出这使得区分真正有用的工具与跟风者变得困难。
每周有多少AI初创企业向他推销?“每周几十家,”布朗斯坦说,“源源不断。”
在通话中,索莫斯社区医疗中心(Somos Community Care)病理学家大卫·张(David Zhang)展示了ChatGPT对前列腺活检的响应。聊天机器人称活检图像符合导管腺癌(一种胰腺癌),但该诊断“远不准确”,他说。
“这正是我们工作安全的原因,”张说,“我们能让基础模型表现更好。”
对于寻求超越普通ChatGPT响应的医生,他们可能寻找更专业化的技术。可供选择的工具可能有数百甚至数千种。美国食品药品监督管理局(FDA)目前收录的启用AI医疗设备清单包含1,247条记录。
牙医迪维安·帕特尔(Divian Patel)表示:“AI本应简化流程,结果却演变为千个门户、千个登录入口,没人愿意使用。”
帕特尔相信同行愿为简化流程付费。他与另一位牙医谢尔文·莫拉耶姆(Shervin Molayem)共同创立了Trust AI。该公司声称将多种AI服务整合到单一平台,据PitchBook报道已获得600万美元种子轮融资。
麻省总医院布莱根医疗系统(Mass General Brigham)首席医疗信息官丽贝卡·米舒里斯(Rebecca Mishuris)表示,在评估涌入桌面的生成式AI工具时,她努力避免“新奇事物综合征”。
“他们提供的解决方案针对的问题我根本不存在,”米舒里斯说,“或许一年后我会遇到,但今天没有。”
医院系统Banner Health临床发展高级副总裁艾伦·韦斯(Alan Weiss)表示,供应商推销新AI工具的数量“几乎令人不堪重负”。他谨慎选择采用的新技术,并由两个独立小组分别审查工具的伦理和临床问题。
与其他行业类似,医院也尝试将AI用于行政工作。与《商业内幕》交谈的医生报告使用AI处理患者登记和医疗保险理赔。
但这些工具并不总能兑现承诺。罗德曼去年指出,行业曾热议AI撰写的患者消息,但随后研究显示部分医生花在修正消息上的时间多于手写,他说。
“那些基本都销声匿迹了,”罗德曼说,“这是个曾充满热情却未达预期的领域。”
《商业内幕》采访的医生从AI积极实践者到怀疑者不等。但多数医生认同一种工具的力量:环境监听设备。
这些AI驱动的记录设备监听医患对话,并在单一文档中总结见解。米舒里斯称其具有“真正的变革力量”。
堪萨斯城圣卢克医院(St. Luke's)内科医生卡尔·迪克斯(Carl Dirks)称环境监听是解决“医生职业倦怠”的方案。部分全科医生告诉他,该工具通过减少快速记录带来的“认知负担”延长了他们的职业生涯。
“我们正努力恢复人与人之间的联系,”迪克斯的同事、BJC医疗保健首席健康AI官菲利普·佩恩(Philip Payne)说,“如何让电脑不再碍事,使医护人员与患者能对话而非提供者整日坐在键盘后打字?”
关于如何披露环境监听设备的使用,尚无官方规则或指南。但在实行双方录音法的州,医生有法律义务披露设备使用。部分医院也为所有医护人员制定披露政策。
随后患者需决定是否接受对话被AI记录和处理。披露质量至关重要:在7月对121个环境文档试点的研究中,近75%受访患者表示接受该技术的使用。
作为精神科医生,法拉汉·侯赛因(Farhan Hussain)的笔记通常非常详尽。他在前工作中喜爱使用环境监听设备,但在新加入的远程医疗公司已无法使用。他十分怀念它。
“否则我们整场都在记笔记,”侯赛因说,“该死,我可不是为当文书才读医学院的。”
环境监听领域也充斥着风险投资。7月,Ambience Healthcare获得Oak HC/FT和Andreessen Horowitz支持的2.43亿美元C轮融资。6月,HV Capital领投Nabla完成7000万美元C轮融资。
大量资金充足的环境监听公司让医生面临额外选择。布朗斯坦使用Abridge,侯赛因使用Nabla,而韦斯目前正在试点四家不同公司的产品。
弗朗西斯科·洛佩斯-希门尼斯(Francisco Lopez-Jimenez)认为心脏病学是最具技术前瞻性的医学学科之一,这可能源于同行的物理学和计算机科学背景。
“心脏病学确实走在创新前沿,”梅奥诊所(Mayo Clinic)心脏病学AI联合主任洛佩斯-希门尼斯说,“毫无疑问,它是医学中最早使用和开发AI的领域之一。”
洛佩斯-希门尼斯迅速承认存在偏见——毕竟他本人就是心脏病专家。纽约长老会医院(New York-Presbyterian Hospital)AI医学总监、另一位心脏病专家皮埃尔·伊莱亚斯(Pierre Elias)表示赞同。
“若查看FDA对AI技术的批准,领先的是放射学和心脏病学,”伊莱亚斯说,“但放射科医生与患者的互动频率不如心脏病专家。”
在医学的广阔领域中,积极者与怀疑者之间正出现鸿沟。根据Elsevier Health调查,48%的受访临床医生表示在实践中使用AI——但24%仍完全不使用该技术,甚至在非工作场合也是如此。
鸿沟的另一端,则是全盘拒绝AI的医生。他们可能担忧伦理问题或丧失专业敏锐度。事实上,8月的一项研究要求常规使用AI的医生在无辅助情况下执行结肠镜检查。使用AI前腺瘤检出率为28.4%;使用后降至22.4%。
贝健康医疗中心(Bayhealth)内科医生乔纳森·西蒙(Jonathan Simon)表示,他仅在“一个领域”使用AI:记录笔记。尽管他参加过一些引人入胜的AI研究讲座,但在实践中他不接触ChatGPT等通用模型或新兴医疗科技产品。
西蒙担忧效率提升可能带来的问题。他意识到更快的诊断意味着更高的患者接诊率——这对医生可能有利可图。
“在追求尽可能多接诊患者(因为利润所在)的过程中,行业必须密切关注AI的负责任和一致使用,”他说,“错误或许罕见,但一次罕见的错误可能毁掉某人的一生。”
【全文结束】


