2025年12月5日
阿德里安娜·巴诺齐克-唐(Adriana Banozic-Tang)
新加坡管理大学博士兼职教师
本文属于:健康与医疗中心
- 医疗AI的信任度落后于采用率,特别是在敏感领域。
- 关键指标如临床医生否决率可为患者提供构建对AI系统信任所需的最低可行保障。
- 东南亚医疗系统提供了将安全AI医疗变为可观察现实的案例研究。
人工智能正迅速成为医疗保健的首要交互层,驱动从症状检查器到治疗机器人的各类应用。然而,采用率已超越信任度。在新加坡这一高度数字化且监管完善的环境中,人工智能无处不在(80%的居民使用它),但一旦建议进入心理健康等敏感或情感化领域,信任度便急剧下降。这种模式在东南亚普遍存在:印度尼西亚和香港每四人中就有一人尝试过AI心理健康工具,但对安全性和共情能力的担忧依然存在。全球范围内,近60%的美国人对AI辅助诊断感到不安。瓶颈已不再是技术准确性,而是一场情感保障危机。
这一信任赤字源于三大系统性差距,即使在先进实施中也清晰可见:
1. 结构不透明性。 患者和临床医生往往无法看到AI风险评分的生成过程,造成基础性信任鸿沟。这种结构不透明性不仅是一种不便,还可能导致直接的临床后果并成为患者伤害的关键因素。例如,经合组织AI事件监测器记录的案例显示, flawed AI设计导致偏见结果,如某系统通过将医疗成本作为医疗需求的代理指标,无意中优先考虑白人患者而非黑人患者。监管审计证实了这一现实风险,npj 数字医学 2025年的一项研究发现,超过90%的美国食品药品监督管理局(FDA)批准的AI设备未能报告其训练数据或架构的基本信息。当决策背后的“原因”不可见时,安全便沦为猜测。
2. 问责缺失。 国际电信联盟(ITU)《2025年人工智能治理报告》记录了当私营AI模型进入公共卫生工作流程时,责任如何在开发者、医院和部委之间分散。这造成了切实的问责鸿沟:发生错误时,没有明确的责任主体。结果是患者投诉可能陷入官僚真空,没有任何一方有义务进行调查、解释或提供补救,系统故障后信任随之瓦解。
3. 人类控制缺失。 当AI首先提出诊断时,可能逆转传统临床工作流程。最新研究证实,当临床医生处理AI提出的诊断建议时,其角色正转向验证,而接受度取决于模型解释推理的能力。但若无明确的操作化检查点(例如强制要求临床医生必须明确阅读、然后接受或否决AI诊断),人类监督的假设便意义不大。
为何感知安全是下一个关键绩效指标
在医疗领域,数字信任是有效性的先决条件。数字心理健康部署的证据表明,对AI的不安会导致参与度降低和提前退出——即使临床准确性很高。用户退出并非因为模型错误,而是因为体验感觉不安全。
由于AI无法真正体验共情,信任不能建立在其类人连接能力上。相反,人机交互研究明确指出,信任是通过尊重患者的脆弱性建立的;这种动态由可预测性、清晰度和用户控制力定义。这要求明确三点:
- 所用数据类型。 自然医学 2024年的一项研究直接证明,相信AI参与会降低对医疗建议的信任,表明数据流不清晰会显著减少披露敏感信息的意愿。
- 决策生成方式。 自然杂志近期的透明度审计确认了系统性结构不透明性,发现超过90%的FDA批准医疗AI设备未能报告训练数据或架构的基本信息,这从根本上削弱了其建议的感知准确性。
- 人类介入时机。 关于AI责任鸿沟的最新研究表明,大多数“鸿沟”实际上是责任在多方和机构间分散的问题,而非完全缺乏责任主体。在此背景下,有意义的申诉途径——患者请求解释、审查及必要时修订AI支持决策的明确渠道——成为在护理点恢复问责的实用机制。此类救济的可用性强烈塑造了用户对公平和信任的感知。
东南亚的信任示范实践
医疗系统正从纸上设计信任转向实践中示范信任。这些改革使安全可观察——将信任从承诺转变为实证:
- 新加坡的最新改革(包括HPRG创新办公室)整合了AI诊断的敏捷路径,要求通过如SaMD变更管理计划等举措部署前提供可验证的审计追踪和网络安全态势。跨境合作也在加强,新加坡-马来西亚医疗器械监管互认计划通过共享监督加速评估。
- 印度尼西亚正奠定将保障原则嵌入一线护理的基础。其BPJS数字健康转型战略正在创建未来AI支持分诊所需的集成数字基础设施。
- 马来西亚的快速数字化(包括支持156家公立医院的云系统)为可观察性能构建了数据骨干。在其担任东盟主席国期间,优先推动区域伦理AI合作,推广将安全性和可追溯性作为用户体验核心的框架。
- 香港正建立可信数据共享的基础架构,这是可审计和可追溯AI的关键技术骨干。今年1月,由香港中文大学(Chinese University of Hong Kong)和香港科学园(Hong Kong Science Park)领导的财团宣布了该地区首个跨境医疗数据空间。该倡议明确设计通过去中心化操作和加密解决方案确保安全可靠的数据处理。
引入最低可行保障
大规模构建信任需要最低可行保障——将治理原则转化为用户可见的安全信号。以下三个已在实现范围内的指标可达成此目标:
- 临床医生否决率。 真实部署的证据证实,追踪临床医生拒绝AI建议的频率可提供模型可靠性的实用信号。诊断学 2025年一项开发AI信任框架的研究发现,否决模式是临床医生怀疑的直接衡量标准:对于可信赖、透明的AI预测,否决率仅为1.7%,而对不透明预测则超过73%。这证明否决率可作为切实的现实安全指标。
- 审计追踪可见性。 世界卫生组织(WHO)《健康人工智能指南》要求审计和人类监督机制,为模型级日志记录和可验证问责奠定基础。这一原则在欧盟人工智能法案中得到呼应,并在新加坡卫生部TRUST环境等平台中落实,使问责成为用户可验证的内容。
- 患者理解度评分。 清晰度直接影响患者是否遵循建议行动——从用药说明到数字护理中的自我管理步骤。简单的“复述确认”检查点(患者确认理解)可将此原则转化为可测量的保障信号。在患者依据AI建议行动前验证其理解度,提供了安全与信任的切实检查点。
领导者的新政策议程
随着各国在医疗系统中部署AI,新优先事项必须指导治理:将患者信任作为核心绩效指标。这需要从仅衡量技术效能转向评估人类信心的根本转变。
当前评估仍优先考虑模型准确性和效率。但现实采用取决于工具是否感觉安全公平。为弥合此差距,政策必须在技术验证之外强制要求持续的信任保障,从一次性审计转向对现实影响的持续监测。
关键行动包括:
- 落实公平性: 系统追踪并解决老年人和低收入群体中较低采用率问题,即使针对免费工具。
- 构建可见救济途径: 建立患者质疑或挑战AI输出的明确路径,将合规转化为切实的用户控制。
- 解决数字不适感: 特别是在心理健康领域,提供者和患者的犹豫可能使AI从桥梁变为障碍,扩大获取差距。
数字医疗的下一阶段将由诊所中的信心而非实验室中的算法性能定义。治理必须被体验,而不仅仅是记录。为实现AI的承诺,信任必须嵌入每一次交互之中。
【全文结束】


