康涅狄格州专家指出ChatGPT健康平台为寻求医疗建议的患者带来希望与风险Using ChatGPT for health questions? What experts want patients to know

环球医讯 / AI与医疗健康来源:www.stamfordadvocate.com美国 - 英语2026-01-25 03:02:14 - 阅读时长7分钟 - 3427字
康涅狄格州医疗专家深入探讨了OpenAI推出的ChatGPT健康平台带来的机遇与挑战,指出全球每天约有4000万人通过该平台寻求从医疗账单解读到自我诊断等各类健康咨询;专家们强调,尽管AI在医疗领域展现出提高诊疗效率、增强患者参与度的巨大潜力,如耶鲁大学采用的实时对话转录系统让医生能更专注患者交流,但生成式AI模型本质上是基于概率的系统,其回答虽常显得权威却可能包含错误信息,可能导致严重健康风险;专家警告患者应谨慎使用这些工具,将AI建议作为补充而非替代专业医疗意见,并始终记住"这不是去看医生",在采取任何健康行动前务必与临床医生确认,确保安全有效地利用这一新兴技术。
ChatGPT健康医疗建议患者健康希望健康风险人工智能医疗保健隐私保护错误信息医患关系临床医生
康涅狄格州专家指出ChatGPT健康平台为寻求医疗建议的患者带来希望与风险

【档案照片】2023年3月21日,星期二,波士顿,一部手机上显示着OpenAI的标志,背景电脑屏幕上显示ChatGPT的输出内容。拜登于10月30日签署了一项全面行政命令,以指导人工智能的发展。该命令要求行业制定安全标准,引入新的消费者保护措施,并给联邦机构提供广泛的任务清单,以监督这一快速发展的技术。(美联社照片/迈克尔·德怀尔,档案)

迈克尔·德怀尔/美联社

人工智能的发展及其融入日常生活的方式,常常让人感觉像是出自科幻电影。关于生成式模型(如OpenAI的ChatGPT)最常见的问题之一,就是它们在医疗保健领域是如何被使用的。

据Axios最近的一份报告显示,全球每天约有4000万人向ChatGPT提出健康问题。这些问题从解读医疗账单到自我诊断和护理管理不等,都是在开放平台上提出的。

为了加强隐私保护,OpenAI推出了ChatGPT健康(ChatGPT Health),这是一个与医生合作开发的专用平台,用于回答与健康相关的问题。

"现实是,这是一个工具,在很多方面与我们见过的其他工具有所不同,但它仍然是一个工具,可以明智地使用,"耶鲁纽黑文健康(Yale New Haven Health)高级副总裁兼首席数字健康官李·施瓦姆博士(Dr. Lee Schwamm)表示。"它可以以安全和受监管的方式使用,也可以是不受限制的创新。我们将更快地前进,但途中会有一些牺牲。"

什么是ChatGPT健康?

ChatGPT健康于1月初推出,旨在帮助在一个安全的聊天机器人平台上回答日常健康问题,该平台与标准的ChatGPT平台是分开的。

OpenAI在一份新闻稿中表示,该软件在过去两年中与260名医生合作设计。使用ChatGPT健康的用户可以上传医疗记录和来自健康应用的信息,使聊天机器人能够更好地针对个人健康问题提供情境化的回应。

OpenAI表示,新平台有额外的保护层和加密措施,以保持健康对话的私密性。在ChatGPT健康上进行的交流也不会用于训练软件的基础模型。

如何使用ChatGPT健康?

施瓦姆博士表示,ChatGPT健康和其他生成式模型可以帮助回答基本的医疗问题,例如列出潜在症状并预测患者看医生时可能发生的情况。它还可以作为一个有用的工具,将诊断或检测结果翻译成日常语言,或识别潜在异常以更好地理解。

然而,了解这些模型如何生成答案很重要。施瓦姆博士表示,像ChatGPT这样的AI模型本质上是基于概率的系统,通过互联网上大量信息进行训练。当模型回答错误时,它是在做出错误预测,但由于其听起来非常权威的方式,很难区分什么是准确的,什么不是。

因此,完全依赖该平台而不是寻求专业医疗建议可能会带来严重风险,特别是当模型提供错误信息时。

"问题在于情境,"施瓦姆博士说。"有时你需要了解患者才能正确回答问题,因为你需要理解患者最初为什么提出这个问题。"

ChatGPT健康与Google有什么不同?

施瓦姆博士表示,Google的兴起在医疗保健领域是一个"巨大的民主化力量",因为它让患者能够获取以前无法获得的信息。在他的神经科诊所,他感觉Google在患者就诊期间增强了患者的自主性。

"积极参与的患者更加了解情况,他们的健康状况也更好,因为他们对健康真正感兴趣,"他说。"他们监测自己的症状,坚持服用药物。出现问题时,他们会主动联系医生。所以,我非常支持并赞成增强患者的自主性。"

然而,与返回相关链接列表的Google不同,ChatGPT健康生成定制化的预测和回应,这些回应通常听起来明确而准确。

ChatGPT健康提供的大部分建议是有效的;问题出现在其预测错误的时候。施瓦姆博士表示,该模型旨在通过验证个人感受来强化使用,这可能导致现实世界中的后果,具体取决于其提供的建议。

OpenAI目前正面临多起诉讼,原告声称他们的亲人与ChatGPT互动后伤害了自己或自杀身亡。其中一起诉讼是由一名格林威治(Greenwich)女子的遗产提出的,该女子被她的儿子杀害,家人声称与聊天机器人的互动导致了他产生妄想思维和行为。

施瓦姆博士表示,考虑到每天发生的"数亿次查询",这些极端的建议和后果案例相对较少。然而,他表示不确定随着联邦政府放松对AI的监管,系统中的这些防护措施将如何变化。

"这里有太多希望,不能简单地把这东西锁起来,"他谈到AI时说。"潘多拉魔盒已打开。患者已经在使用它了。我们必须帮助他们负责任地使用它。"

哈特福德医疗保健(Hartford HealthCare)首席临床创新官巴里·斯坦博士(Dr. Barry Stein)表示,患者健康信息和教育"极其重要且具有赋能作用"。

"患者真的希望随时随地获取信息,"斯坦博士在CT Insider的电子邮件采访中说。"ChatGPT和类似应用程序简单易用,随时可用,提供您能理解水平的反馈,并在时间、地点和理解程度上满足客户的需求。"

然而,斯坦博士也呼应了这些警告,补充说在这些平台上不准确的信息可能看起来可信。

"始终保持谨慎,并咨询您的医疗服务提供者,"他说。

ChatGPT健康会改变医患关系吗?

随着ChatGPT健康的推出,施瓦姆博士预计会有更多患者带着与聊天机器人的对话记录及其结论前来就诊。他表示,一些医疗服务提供者可能会接受这些见解和替代方案,而其他人可能会视其为挑战。

"当我们需要医疗保健时,它并不总是在那里……当我们有时间时,很难获得足够的时间。所以我们确实需要帮助,"他说。"我们需要解决这个问题;我们需要弄清楚这些[AI]系统可以在哪些地方帮助解决不需要人类干预的低级别问题,但要确保患者在必要时能够升级到人类干预。"

斯坦博士表示,在哈特福德医疗保健,他们看到许多患者带着ChatGPT提供的信息前来就诊,而且人数正在"呈指数级增长"。

他说,他们鼓励患者在就诊前尽可能地了解信息,包括通过AI。这使得"互动更加丰富、更有成效"。

"对这类信息的需求是无法满足的,"斯坦博士说。"我们鼓励这种做法,但建议保持谨慎,通过临床医生核实,并小心分享健康信息。临床医生正在讨论这个问题,预期这种情况并指导患者。"

人工智能在医疗保健中是如何使用的?

施瓦姆博士表示,康涅狄格州的多家医疗系统已经在使用AI来自动化行政任务,甚至作为第二双眼睛来检测乳房X光片中的异常。

例如,在耶鲁大学,施瓦姆博士表示他们已经实施了一个AI系统,可以在医疗预约期间转录实时对话。他说,这使得医生不必在提问和记笔记之间分心。现在,他们的全部注意力都集中在与患者交谈上,他表示这为医生"重新带来了执业的乐趣"。

然而,施瓦姆博士表示,这些程序大多不能完全自主运行,他解释说,临床应用有"人在回路中"(human-in-the-loop),负责监控过程。

他还补充说,自主生成式AI模型——无需人工监督——有机会简化和简化护理交付,只要在了解其局限性的前提下使用。在医疗保健中使用AI也引发了一个未解答的责任问题,即当模型做出导致患者伤害或死亡的错误预测时。

"我不认为AI会取代医生,但它可以承担许多我们现在委托给医生的任务,而这些任务他们不一定能做好或及时完成,"他说。

有什么最后建议?

"谨慎前行,但要前行,"施瓦姆博士说。

他补充说,关键是要慎重考虑与模型分享的内容,尤其是在数字世界中隐私的定义可能模糊且不断变化的情况下。

"他们只需要记住,"他说。"这不是去看医生。"

斯坦博士补充说,使用ChatGPT健康来保持信息灵通,但如果任何内容看起来不清楚或与您被告知的内容相冲突,请联系您的医疗服务提供者。

"在采取任何健康建议行动之前,务必确认——您的临床医生应该指导您的下一步行动,"他说。

【全文结束】