随着人工智能(AI)在日常生活中使用的激增,许多人担心,只是时间问题,AI 将接管目前由人类完成的每一项工作。已经出现了 AI 演员、作曲家、歌手和艺术家。呼叫中心越来越多地使用 AI 来路由电话并帮助客户解决他们的问题。AI 协助科学家寻找可能成为更好药物或抗生素的新分子。AI 设计建筑物并帮助建筑师和工程师确保这些建筑物安全稳定。AI 通过不同的模型来预测天气。AI 帮助学生进行研究工作,有时甚至过多到老师不得不使用 AI 来检测他们的学生是否使用 AI 作弊。
当正确使用时,AI 确实可以提高生产力并自动化繁琐的任务。然而,在许多情况下,仍然需要人类的输入,尤其是在利害关系较高的时候。例如,自动驾驶汽车偶尔仍会撞倒行人或在算法过载或没有先前经验可供借鉴时引发事故。虽然计算机变得越来越好,但在没有人控制的情况下很难分配责任。事实证明,错误的发生显示了 AI 的固有弱点:它的好坏取决于提供给它的信息。它可以制作出很好的图片和音乐副本,但其所有输出本质上都是衍生的,仍然需要人类提出新的想法和概念。
那么,医学领域的人工智能呢?医疗保健是一个特别关键的领域,因为人们的生命岌岌可危。已经有众多 AI 应用,特别是在诊断方面。经过适当训练的 AI 已被证明在检测胸部 X 光片和活检样本中的异常方面表现更好。然而,放射科医生或病理学家仍需审查结果并将其与临床表现相关联,否则,AI 可能在 X 光片上过度诊断肺炎或在活检切片上诊断癌症。在某些特定情况下,AI 可以帮助医生做出决策,但重要的是要谨慎选择这些情况,并确保 AI 本身质量优良且有适当的监督。
医生接受的是模式识别训练。学习在复杂的系统中识别模式,通常是在不完整甚至矛盾的数据下,这是一门被称为启发式科学的领域。医生随着时间的推移变得更好,因为他们的经验变得更加广泛,并且看到了自己决策的结果。例如,当我还是医学生时,我刚开始接触患者时,我的鉴别诊断范围非常有限。一个在我刚开始实习时来看病的人会告诉我他的症状,我会进行体检,然后生成我的鉴别诊断。由于我经验有限,其中一些鉴别诊断不太可能,因此有一位更高级的医生来审查这些决策。然后我确定了一个主要的工作印象,基本上是我认为患者最有可能患有的疾病,并制定了行动计划。这些计划包括诊断和我认为患者需要立即治疗的药物。更高级的医生(通常是正在培训的住院医师)会审查这些计划并批准它们。当患者回来复诊时,我会通过诊断结果确认我的想法,并判断我的治疗是否有效。在没有监督的情况下学习医学是有风险的,因为如果学生犯错,患者可能会死亡。这就是为什么即使在我们学习的过程中,也有来自住院医师、研究员和主治医生的多层监督。反馈对于从错误中学习至关重要,而掌握技能需要多年的实践。
此外,由于现代医学的复杂性,患有多种问题的患者会被不同的专科和亚专科医生共同治疗。如果没有这些保障措施,学习医学可能会导致患者不良的结局。启发式也是机器在神经网络中学习的方式,但速度更快。然而,这些都在虚拟空间中进行,需要外部反馈来帮助 AI 学习最优化的答案,而不危及患者。从某种意义上说,AI 成为了知识的延伸和存储库,但如果没有最终用户的反馈,它无法验证其输出。它最有用的地方是生成一个经验有限的医学生可能不会考虑的鉴别诊断,评估数千种情景,并建议特定的模式供考虑。这有助于医生更加彻底地考虑其他可能的情景。AI 还可以排名概率并帮助优先进行诊断和干预,前提是给予正确的反馈。
在我在美国进行传染病学研究员培训的后期,我在克利夫兰退伍军人医院进行临床工作时,医院开始使用自动机器人将药品从药房运送到不同楼层的护士站。我的主治医生会故意试图混淆这些机器人,突然跳到它们前面挡住它们的路。机器人会暂停、后退并尝试绕过他,但他会移动到机器人要去的地方。当机器人完全困惑时,我的主治医生会笑着解释说,他只是在为人类发声。我觉得这很有趣,但内心深处,我有点担心这种情况是否会成真。
经过很多关于机器是否会在变得足够智能时决定消灭人类的担忧,类似于《终结者》电影的情节,事情现在开始平静下来。医学的未来肯定包括 AI,因为它提供了许多优势,如果正确使用,会使我们成为更好的医生。我把 AI 看作是我们用来更好地完成工作的工具进化中的一步。从算盘到电子计算器,再到计算机和智能手机,现在是 AI,技术不大可能是存在性的威胁,而是使我们更加高效。我并不太担心这些机器会抢走我们的工作。医学不仅仅涉及抽血做检查和开药。事实上,患者经常抱怨现在的医生花在与他们交谈上的时间不够。安慰患者并提供同理心仍然是现代医学的核心。有一件事 AI 永远无法替代,那就是人类的关怀。
(全文结束)


