我最近参加了在瑞士举行的一次生物伦理学会议,来自不同国家的专业人士齐聚一堂,讨论今年会议的主题——医学伦理的最新话题。会议的一个亮点是关于将人工智能纳入决策过程及其伦理影响的几场演讲。
引起我注意的是关于个性化患者偏好预测器(P4)的演讲,这是一种旨在通过机器学习预测个体患者医疗偏好的工具。
这个想法是在一个人失去行为能力的情况下——例如,被发现昏迷且没有预先指示——AI会浏览他们的数字足迹,包括推特、Instagram和Facebook帖子,甚至可能包括电子邮件,以推断他们可能的愿望。系统随后会创建一个虚拟副本,称为“心理双胞胎”,代表个人向医疗团队传达决定。
虽然这一概念在技术上令人着迷,但它也引发了许多紧迫的伦理问题。首先,它假设我们的社交媒体存在准确反映了我们的核心价值观和长期偏好。然而,人们的观点是动态的,受到情绪状态、生活经历和个人成长的影响。一条讽刺的推文或在线分享的瞬间意见可能并不代表某人真正的临终愿望。
其次,使用AI可能会引入或放大偏见——尤其是针对老年人和少数民族群体。AI系统通常从大型数据集中进行概括,这可能导致“一刀切”的假设,忽视了文化、精神或个人细微差别。
另一个关键问题是:AI能否真正理解或处理家庭成员和医疗提供者之间的情感和道德复杂性?它是否具备调解微妙对话所需的同理心,还是只会提供冷冰冰的逻辑,比如:“爷爷太老了,生存几率很低,所以资源最好分配到其他地方”?
此外,依赖AI进行这种深刻的人类决策可能会导致医务人员技能退化。伦理决策是一项通过经验、反思和对话发展起来的重要技能。如果AI接管这些角色,临床医生可能会逐渐失去参与这些重要讨论的能力或信心。
支持使用P4的演讲者承认他并不完全了解AI是如何做出决定的。这种缺乏透明度的情况令人担忧。如果我们打算将生死攸关的建议交给机器,我们必须首先要求其设计和操作的清晰性和问责制。
在我看来,尽管AI在医疗保健中的作用日益增长,但伦理决策仍然是人类的责任。这些讨论常常充满分歧、文化敏感性和强烈的情绪——尤其是在涉及生死问题时。我认为,我们还没有准备好将这项任务交给机器。
(全文结束)


