研究人员已经展示了如何利用人工智能(AI)训练机器人模仿人类医生进行手术操作。约翰霍普金斯大学(Johns Hopkins University)和斯坦福大学(Stanford University)的研究人员建立了一个训练模型,该模型使用了人类控制的机械臂执行手术任务的视频记录。通过学习模仿视频中的动作,研究人员认为可以减少为每个手术步骤单独编程的需求。
据《华盛顿邮报》报道,这些机器人学会了自主操纵针头、打结和缝合伤口。更进一步的是,经过训练的机器人不仅能够模仿动作,还能纠正自己的错误,例如捡起掉落的针头。科学家们已经开始进入下一阶段的工作:结合所有不同的技能,在动物尸体上进行完整的手术。
实际上,机器人在手术室的应用已有多年历史。早在2018年,“葡萄手术”这一梗就突显了机器人手臂在手术中提供的高精度辅助。2020年,大约进行了876,000例机器人辅助手术。机器人仪器可以到达医生的手无法触及的身体部位,并且不会出现手抖的情况,从而避免神经损伤。然而,目前的机器人通常是由外科医生通过控制器手动引导的,医生始终处于主导地位。
怀疑者担心更自主的机器人可能存在的问题是,像ChatGPT这样的AI模型并不是“智能”的,而是仅仅模仿它们之前见过的东西,而不理解其处理的基本概念。人体病理的无限多样性给这种技术带来了挑战——如果AI模型从未见过特定情况怎么办?手术中可能会在瞬间出现问题,而AI是否已经接受过应对这些问题的训练?
至少,用于手术的自主机器人需要获得美国食品药品监督管理局(FDA)的批准。而在医生使用AI总结患者就诊情况并提出建议的情况下,FDA并不需要批准,因为医生理论上应该审查并认可AI生成的所有信息。这令人担忧,因为已有证据表明AI可能会给出错误的建议,或在会议记录中编造从未提及的信息。过度劳累的医生是否会不加仔细审查就批准AI生成的内容?
以色列士兵依赖AI识别攻击目标而不仔细审查信息的报告让人联想到这种情况。“训练不足的士兵在没有核实AI预测的情况下攻击人类目标”,《华盛顿邮报》的一篇文章写道。“有时唯一需要验证的就是目标是男性。”当人类变得懈怠并且不够参与时,事情可能会出错。
医疗保健领域也是如此,其风险显然高于消费市场。如果Gmail错误地总结了一封电子邮件,那不是世界末日。但如果AI系统错误诊断健康问题或在手术中犯错,后果会严重得多。在这种情况下,谁应该承担责任?如果机器人手术出了问题,惩罚谁?吊销谁的行医执照?人类虽然也不完美,但至少患者可以放心,知道他们经过多年的培训,并且可以在出错时追究责任。AI模型只是人类的粗糙模拟,有时行为不可预测,并且没有道德指南针。
如果医生疲倦和过度劳累——这是研究人员建议这项技术有价值的原因之一——那么也许应该解决导致医生短缺的系统性问题。据广泛报道,由于该领域的可及性越来越低,美国正经历严重的医生短缺。根据美国医学院协会的数据,到2036年,美国可能会短缺1万至2万名外科医生。
(全文结束)


