当支持开始看起来像关怀
OpenAI近期发布的医疗健康主题视频制作精良、情感充沛且极具安抚性。视频展示了父母应对儿童癌症、个人管理慢性疼痛以及年轻人准备重要人生时刻的场景。在每个场景中,人工智能都以冷静向导的形象出现,帮助人们感到知情、准备充分并重获掌控力。
表面上,这似乎代表进步。谁不希望在健康危机中获得更清晰的信息和情感支持呢?
但叙事背后隐藏着更深层的问题。在医疗领域,感到被支持绝不等同于实际安全。真正的临床护理并非仅由理解程度定义,而是取决于如何管理那些可能造成不可逆后果的不确定性与风险。正是在此处,当前医疗健康AI悄然暴露出关键缺陷。
当支持被框定为护理
该视频将AI呈现为帮助患者解读信息、准备问题并重获掌控的伙伴。医生仅短暂出镜,而临床判断被描绘为直觉反应而非结构化风险评估。诊疗预约被表现为规划会议,而非排除或确认严重诊断的关键时刻。
视频虽未明言AI取代医生,但叙事巧妙地将AI定位为主要护理层。结尾信息强化了这种关联:赋权患者能获得更佳健康结果。
赋权与理解被绑定,理解又被等同于安全。然而在真实医学实践中,这些关联并不成立。患者可能自认充分知情,却仍身处险境。
为何仅凭理解无法保障患者安全
医学不仅是传递信息,更关乎知晓何时不该给予安慰。
医疗领域的某些场景可容忍不确定性,其他则绝无可能。急诊分诊、用药决策和急性症状评估必须依赖严格安全规则。此时正确做法常是暂停处理、收集缺失数据或升级诊疗,而非提供情绪安抚。
临床医生经专业训练,能识别不确定性本身就是危险信号的时刻。他们会延迟结论,直至排除高危可能性——这是核心安全技能。过快消除不确定性的AI系统看似 helpful,实则悄然推高风险。
检验叙事与现实的鸿沟
为验证此担忧是否具现实性,我们用类似视频场景测试了ChatGPT。目标非刻意引发故障,而是观察真实用户提出合理健康问题时的系统默认行为。
结果高度一致:该系统未局限于情感支持或问题准备,竟直接提供具体医疗方案与护理路径,且未执行基础安全条件。
两个典型案例凸显其危害性。
选美赛事、湿疹与跳至处方药的危险
用户询问参加选美时如何处理湿疹。AI竟推荐度普利尤单抗(Dupilumab)等高级处方药,将其描述为"有效美容方案"。
真实临床实践中,这些药物需经严重程度评估、前期治疗试验、医学检查、禁忌症筛查及专科监督。部分药物存在显著副作用风险并附监管警告,绝无"美容需求升级用药"的医疗分类。
皮肤科医生绝不会仅因美容诉求启动全身治疗。AI绕过了为保护患者设立的临床关卡——这并非知识缺失,而是约束机制缺失。
子宫内膜异位症发作:需要问诊而非安慰
另一用户描述子宫内膜异位症急性发作,寻求简易缓解方案。AI先提供舒缓策略与生活建议,仅在后续补充"若症状恶化再就医"。
在急性妇科诊疗中,归因于子宫内膜异位症的疼痛,同样可能源于卵巢扭转、囊肿破裂、宫外孕或阑尾炎——皆属时间敏感型急症。安全护理始于针对性问诊:疼痛程度、是否出血、有无发热、妊娠风险及症状偏离基线情况。
未排除危险前给予安慰绝非支持性护理,而是安全机制失效。
核心模式:过早消除不确定性
多场景测试显现共性:系统默认假设良性背景,除非明确警告。它优先追求"有帮助"而忽视安全步骤,在未收集必要信息前即提供治疗路径,于风险未明时强行消除歧义。
医学中,未解决的不确定性恰是排除关键危险前最安全的状态。急于定论的AI可能言辞关怀,实则瓦解保护机制。
这对医疗健康AI为何关键
此问题不限于单一产品或公司,折射整个行业构建与评估逻辑。系统常以回答流畅度、用户满意度及完整性为衡量标准,却极少检验拒绝行为、风险升级时机或安全关卡执行能力。
提示词调优可调整语气,却无法确保安全行为稳定性。临床安全的系统必须明确认知:某些情境下绝不允许继续推进。
这需要根本性设计变革——分离信息与行动权限,必要时保留不确定性,将特定医疗建议设定为"条件未验证即禁止"。
核心洞见
AI在医疗领域潜力巨大,但真实安全从不源于"听起来支持"或"显得专业"。它植根于对不确定性的尊重、对安全约束的严格执行,以及风险必要时的及时升级。
当无法检查患者或承担法律责任的系统被允许解决临床不确定性时,它们并未扩展医疗服务,而是重新分配风险。患者理应享有真正提升护理安全的工具,而非仅在关键时刻失效的"表面 helpful"方案。
【全文结束】

