尽管人工智能(AI)正迅速成为医疗保健领域的重要工具,但医疗中的人文因素仍然是持续提供高质量护理的关键。
人工智能如今可以比临床医生“看”得更多、行动更快。这带来了明显的诱惑:如果系统能够生成洞察并推荐行动,为什么还要保留人为环节?这背后存在一个根本性问题。护理不仅仅是关于“什么有效”,更是关于“什么正确”。每一次去除人类的参与,我们同时也去除了只有人类才能承担的某些东西。
在医疗保健中,完全自动化不应成为目标,原因有五。
1. 医疗风险不仅仅是技术风险
人工智能的优势在于它没有感知能力。它可以在无偏见的情况下检测模式,且不会疲劳。它可以减少技术性错误,例如漏诊、记录不一致以及延误升级。
然而,它无法承担道德风险。它无法权衡伦理、关系或情境中的伤害。医疗保健涉及对“应该发生什么”的判断,而不仅仅是“可能发生什么”。
临床警报、升级模型和分诊优先级的失败表明,即使高精度系统也可能在缺乏背景或假设未被挑战时造成重大伤害。
2. 背景并不总是存在于数据中
人工智能基于其接收到的输入进行操作,而临床医生则对实际存在的情况作出反应。患者语气、姿势、沉默或眼神都可能改变临床决策路径。虽然已有技术可以解析语调、眨眼频率和环境行为,这些技术在提供洞察方面令人惊叹,但它们仍然是通用化的。临床背景往往隐藏在未言说和未观察到的细节中,而这些细节是患者独有的。它们只能被人类的直觉感知和辨别,难以被编码。
当模型无法识别背景时,该背景就从决策中被排除了。
3. 对系统的信任取决于透明度;对人的信任则取决于关系
人们信任可解释和一致的自动化系统。他们接受由明确规则管理的系统。他们不信任黑箱逻辑来做个人决策。
患者希望被看见。他们希望知道有人对此负责。这种信任并不来源于界面设计,而是来源于临床存在感。世界卫生组织的《人工智能用于健康的伦理与治理》报告指出,可解释性和问责制不是可选的设计功能,而是伦理上的必要条件。
4. 即使失败也需要有人类的面孔
当伤害发生时,必须有人来解释决策。系统无法回答“为什么对我做了这件事?”这样的问题。机器无法道歉,模型无法作证。必须有人为选择负责。问责制需要人类的存在。诸如《2020–2025年全球数字健康战略》和《NIST人工智能风险管理框架》等治理框架强调,在结果不可逆、人类尊严受到威胁的情况下,必须进行监督。
5. 自动化并非中立:它必须被治理
人工智能会扩展其应用范围。如果没有边界,它将进入失败可能长期隐匿直到公开的领域。某些功能可以安全地委托。其他功能则必须由人类主导。这种区分必须是有意识的,不能任其随意发展。
全球标准如ISO/IEC 42001和经合组织(OECD)人工智能原则呼吁在道德后果的背景下建立治理结构,以明确责任归属。
谁来承担伦理负担?
如果机器无法承担道德重量,那就必须由他人来承担。这种负担不会消失,只是转移了。临床领导者、董事会和系统设计者不仅要问:“我们能自动化什么?”他们还必须问:“通过这样做,我们接受了哪些责任?”
将决策委托给人工智能并不会消除其伦理复杂性,而是将其转移给批准委托的人。当伤害发生时,系统不承担责任,批准者才承担责任。
我们必须不仅为技术失败制定治理机制,也为道德问责制定机制。这意味着明确责任归属,对自动化决策进行伦理审查,并建立在机器逻辑超越人类判断时的干预能力。
领导者现在必须做什么
1. 围绕决策时机重新设计工作流程,而非工具访问
临床安全存在于洞察与行动之间的空间中。保护这一空间。如果流程压缩了它,就重新设计流程。
2. 坦诚面对哪些地方人类是必要的,哪些地方不是
并非每个决策都需要人类。但有些必须有。这种区分是战略性的,必须有意识地做出。
3. 培训临床医生使用人工智能并挑战它
技能不在于技术熟练度,而在于知道何时接受、何时暂停以及何时说“不”。
4. 将时间视为临床资产
时间不是成本中心,而是护理发生的场所。在风险高、复杂性不可简化的情况下,设计保护时间的系统。
这些不是理想化的原则,而是操作上的必要条件。人工智能正在重塑我们所见、我们行动的方式以及我们必须响应的速度。它在加速护理交付的同时,也引入了超越适应能力的复杂性。
如果我们去除了判断的空间,我们也就去除了判断本身。剩下的只是自动化的流程,看似护理,却缺乏其核心。
临床判断不会在毫秒内发生,而是在关键时刻发生。如果我们自动化了这些关键时刻,我们不会现代化医疗保健,而是瓦解了护理得以存在的条件。
【全文结束】


