越来越多的人开始向人工智能寻求医疗建议,往往在真正见到医生之前就已如此。鉴于医疗系统的低效和高成本,这种便捷性难以抗拒——但可能以准确性和隐私为代价。
摘要:越来越多的美国人转向AI医生寻求便捷、低成本的医疗建议。尽管这类专用聊天机器人能提供更快的响应和更易获取的服务,但幻觉问题、回答不一致以及数据隐私担忧可能暂时限制其潜力。
如果你需要健康相关问题的答案?人工智能或许能省去你跑医院的麻烦。根据宾夕法尼亚大学安嫩伯格公共政策中心2025年的一项调查,79%的美国成年人会使用互联网查找健康问题答案,其中75%表示AI生成的回答有时、经常或总是足够充分解决他们的疑问。但如果连上网搜索健康信息都不需要呢?这正是AI医生的价值所在。
什么是AI医生?
AI医生是一种专门训练的聊天机器人,其数据源包括医学期刊、学术数据库和电子健康记录。它运用自然语言处理和自然语言生成技术来理解用户查询,并提供与健康问题相关的准确答复。
AI医生是新兴的聊天机器人浪潮,正迅速普及。与ChatGPT、Claude和Grok等通用聊天机器人不同,AI医生专门基于电子健康记录、学术数据库、医学期刊及其他健康数据源进行训练。它们随后通过自然语言处理分析书面和口头查询,并通过自然语言生成产出用户可理解的答案。这些能力共同使AI医生能就各类健康话题与用户进行直观对话。
从积极角度看,AI医生可简化患者体验并弥补医疗系统缺口。但与此同时,该技术固有缺陷挑战了医疗聊天机器人作为医患互动可行替代品的观念,并引发AI可能对依赖者造成更大伤害的隐忧。
为何AI医生如此受欢迎?
根据Drip Hydration研究,超过三分之一的美国人使用AI研究健康问题,40%的人信任AI生成的医疗建议。那么,是什么原因促使人们转向AI?主要有以下几点。
更快的响应速度
Drip Hydration发现,43%的受访者使用AI咨询健康问题是为了获得更快答复,这是最普遍的原因。考虑到美国患者等待时间已显著延长——ECG Management Consultants全国研究表明,在主要大都市地区预约可能需要27至70天——这一现象并不意外。鉴于此现实,AI医生可大幅节省时间,且受益者不仅是患者。
"如果医生被文书工作和行政流程压得喘不过气,就永远无法妥善照顾真正需要他们的患者,"研究过医生使用聊天机器人的斯坦福大学医学助理教授Jonathan H. Chen博士告诉Built In,"聊天机器人短期内帮助减轻部分行政负担,让医生能专注患者,这是非常可行的。"
日益上涨的医疗成本
Drip Hydration调查显示,五分之一的受访者为避免高额医疗账单而使用AI咨询健康问题。美国素以拥有全球最昂贵的医疗系统闻名,不断上涨的成本给患者带来更大压力。根据健康政策非营利组织KFF 2025年10月的调查,44%的18-64岁美国成年人表示支付医疗费用"有些"或"非常"困难,而无保险人群这一比例飙升至80%以上。
因此,许多患者可能别无选择,只能因便捷性和可及性转向AI工具。尤其对于保险有限或无保险者,通过月度聊天机器人订阅获取廉价医疗建议,比就诊后承担高额账单更划算。
医疗服务质量欠佳
即使患者成功预约,也未必总能获得最佳诊疗。Drip Hydration数据显示,34%的美国人感觉医生未认真对待其症状,25%的人曾遭遇误诊或延迟诊断。AI医生则可能比人类医生更快提供准确诊断,使患者能在早期阶段处理健康问题。
AI医生的隐忧
尽管AI医生弥补了部分医疗系统缺陷,但其自身问题可能使其弊大于利。
幻觉问题
AI工具易产生"幻觉",即生成不准确或完全虚构的信息并当作事实呈现。在一项评估大语言模型准确性的研究中,研究人员发现这些模型在88%的健康查询中产生健康错误信息。更糟的是,2024年KFF调查显示,57%的成年人无法自信判断AI生成信息的真伪。
AI反复出错是一回事,但无法察觉错误会导致持久后果。用户可能在误诊后遵循错误治疗方案,或忽视需要紧急护理的严重症状——且与真实医生不同,他们对AI公司几乎没有法律追索权。
若AI幻觉问题持续无解,当人们连答案都难以信任时,AI医生很难成为主流。
回答不一致性
虽然幻觉有时易于识别,但更隐蔽的是聊天机器人答案中的细微差异。这些微小变化与幻觉同样具有误导性,并进一步削弱AI生成内容的可信度。
"当前代聊天机器人在准确性和偏见方面的问题限制了其在高风险医疗环境中的使用。或许更具挑战性的不是聊天机器人有时出错,而是它们甚至不一致,"Chen表示,"它们在自动补全答案时具有内在的随机概率特性,这意味着即使重复提问,你也无法获得相同答案。"
数据隐私风险
考虑到用户已习惯与聊天机器人进行深度个人对话,他们可能在未察觉情况下披露高度敏感的健康信息。AI公司不受真实医疗从业者需遵守的同类隐私法律(如HIPAA《健康保险可携性和责任法案》)约束。因此,一旦数据被存储,就无法阻止他们用其训练和优化AI模型,为用户带来更大的隐私隐患。此外,患者与聊天机器人的互动可能模糊用户同意与数据隐私违规之间的界限,使监管这些工具、确保患者数据保密性变得更加困难。
AI能否取代医生?
尽管AI仍在发展中,但它在医疗行业已取得进展。美国医学会2025年调查显示,使用AI的医生比例从2023年的38%跃升至2024年的66%——这对技术采用不快的行业而言是快速转变。若此趋势持续,AI未来可能不止自动化琐碎任务,微软创始人比尔·盖茨甚至预测AI可能在10年内取代许多医生。
当然,公众需接受AI替代面对面医患互动,而这可能难以实现。根据明尼苏达大学和密歇根大学研究人员发表的研究,约58%的美国成年人不信任医疗系统能确保AI工具不造成伤害,约66%不信任医疗系统负责任地使用AI。若无更广泛的支持,医疗机构实施AI工具毫无意义。
或许当技术承担更多社会角色并采用更吸引人类的物理形态时,这种对AI的冷淡态度会消融。目前,AI可能仅限于增强而非完全自动化医疗岗位,但AI医生的持续使用可能预示未来趋势。
常见问题解答
为何越来越多人使用AI医生?
预约医生可能需要数月,且费用可能高达数百美元。AI医生提供了一种廉价便捷的健康问题解答方式。此外,人类医生可能误诊或提供劣质诊疗,因此用户也可能转向AI医生寻求第二意见。
使用AI医生有哪些风险?
AI医生对同一问题多次提问可能给出不同答案,或产生幻觉并提供错误/荒谬回应。此外,用户可能分享敏感健康信息,这些信息随后被用于训练和优化模型,带来威胁患者数据保密性的隐私风险。
【全文结束】


