AI伦理:医疗保健领域的界限在哪里?AI ethics: what are the limits in healthcare?

环球医讯 / AI与医疗健康来源:www.medicaldevice-network.com英国 - 英语2025-02-14 20:00:00 - 阅读时长4分钟 - 1554字
本文探讨了AI在医疗保健领域的应用及其引发的伦理问题,通过与Alan Turing研究所的David Leslie的对话,深入分析了AI在医疗中可能带来的不平等、偏见及敏感领域的应用限制。
AI伦理医疗保健AI应用道德规则不平等加剧偏见数据偏差可编码规则敏感医疗领域社会问题
AI伦理:医疗保健领域的界限在哪里?

尽管存在担忧,全球医疗行业在实施人工智能(AI)方面仍不断推进,从医院管理中的患者病历到药物研发和手术机器人。根据美国皮尤研究中心的研究,公众对AI在医疗中的应用持保留态度,有60%的受访者表示,如果医疗服务提供者依赖技术进行诊断和治疗建议,他们会感到非常或有些不舒服。

调查还发现,只有38%的美国人认为AI在医疗保健中的使用会带来更好的结果,而只有33%的人认为它会使情况变得更糟,其余的人则持中立态度或不知情。

如果AI将在人们生命中最重要的一些决策中变得无处不在,那么它应该遵循什么样的道德或伦理规则?AI的伦理上限是什么?在什么情况下实施这项技术变得不道德?

为了进一步了解,Medical Device Network与英国Alan Turing研究所的伦理和负责任创新研究主任David Leslie进行了对话,探讨了AI在医疗保健中应遵循的规则。

Joshua Silverwood (JS):请谈谈你是如何开始研究这个主题的。

David Leslie (DL): 我在新冠疫情期间开始更深入地思考这个问题,因为Turing研究所当时正在进行一个项目,旨在通过数据科学快速响应各种关于该疾病的问题。

我让AI为《哈佛数据科学评论》撰写了一篇文章,题为“通过负责任的AI创新应对新冠”。文章探讨了偏见和其他大问题在疫情期间的表现,题目是“AI是否在新冠时代的医疗保健中加剧了不平等?”基于此,我被卫生和社会保障部(DHSC)邀请支持一项关于AI赋能医疗设备健康公平性的快速审查。

JS:你在研究中注意到哪些AI加剧不平等的实际例子?

DL: 我们可以反过来看,即世界上的不平等和不公平模式是如何进入技术中的。首先,社会健康决定因素起着重要作用。我们生活的环境创造了不同的不公平现象,如获得医疗服务的不平等、入院和治疗的不平等,以及基于特定环境的资源分配不均。

还有医学培训中的偏见,这些偏见倾向于某些社会经济群体。例如,在皮肤病学培训中,医生更可能对浅色皮肤有深入了解,但对深色皮肤的知识较少。所有这些因素都会渗入AI的生命周期中。

例如,不公平的医疗服务访问会导致数据集中的代表性失衡。由于服务中的差距,某些少数群体可能不会被充分纳入电子健康记录,从而导致数据分布的偏差。

JS:某些社会误解是否会在AI中体现出来?

DL: 考虑一下AI的路径。假设我是医生,你来我的诊所进行评估。在我们的互动中,我的偏见会在我的笔记中显现出来。当你汇总这些笔记并看到许多医生的笔记时,所有这些笔记将用于微调自然语言处理系统,这种系统可能会支持分诊或某些治疗路径建议。

认为从带有偏见的临床笔记到自然语言处理系统的输出中,偏见会神奇消失是不合逻辑的,因为它们已经嵌入数据集中。因此,我们必须非常小心。这些首先是社会实践,嵌入的偏见会体现在数据中。

JS:是否有任何可编码的规则来减轻这些偏见?

DL: 对于不平等和偏见,我们不应谈论消除它们,因为这些现象在现实世界中普遍存在。我们应该考虑如何在技术中减轻它们的影响。如何减少歧视和偏见的影响并改进系统?我们必须意识到,由于人类的行为,偏见总是会出现。

对我来说,最重要的是前瞻性方法,即将反思性的偏见缓解过程融入系统设计中。

JS:你认为有哪些医疗领域过于敏感,不适合引入AI?

DL: 我认为我们需要意识到,没有问题是零问题。这意味着虽然有许多AI支持的技术可用,但也有一些复杂的社会问题可能不太适合用统计系统来解决。这些都是计算统计系统,需要更多的实际判断和常识。

例如,在保险领域,已有数百万例歧视的例子。没有统一的疾病评分标准。我们必须更加适应复杂的社会问题,因为在处理社会和人口统计数据时,你会看到更多的社会偏见和伤害模式的反映。


(全文结束)

大健康
大健康