医疗领域人工智能需要以患者为中心的监管以避免歧视——新评论

AI In Healthcare Needs Patient-centred Regulation To Avoid Discrimination - New Commentary

英国(根据新闻来源SAGE及皇家医学会判断)英文科技与健康
新闻源:Mirage News
2025-06-26 07:00:00阅读时长2分钟583字
医疗保健人工智能患者为中心监管歧视患者权利风险导向型监管AI诊断治疗医疗变革自主权和信任

近日,发表于《皇家医学会杂志》的一篇新评论警告称,目前针对医疗领域中的人工智能(AI)所采用的基于风险的监管方法,在保护患者方面存在不足,可能导致过度治疗、治疗不足以及对某些患者群体的歧视。

文章作者发现,尽管人工智能和机器学习系统能够提升临床诊断的准确性,但其固有的不准确性、不透明性以及潜在偏见问题仍未得到现有监管措施的充分解决。欧盟推出的《人工智能法案》虽然将医疗AI归类为“高风险”,并对供应商和部署者实施了严格控制,但这种基于风险的框架忽视了三大关键问题:个体患者的偏好、AI实施对系统和长期影响,以及患者在监管过程中的赋权缺失。

丹麦奥尔堡大学数据与人工智能伦理学教授、本文的主要作者托马斯·普洛格(Thomas Ploug)表示:“患者在准确性、偏见或AI在其护理中扮演的角色等方面有着不同的价值观。因此,监管不应仅停留在系统层面的安全性,还需考虑个体权利和参与。”

作者呼吁引入与AI生成诊断或治疗计划相关的患者权利,具体包括以下内容:

  • 请求解释的权利;
  • 同意或撤回同意的权利;
  • 寻求第二意见的权利;
  • 拒绝基于公开数据进行未经同意的诊断或筛查的权利。

他们警告称,若没有来自医疗利益相关方(包括临床医生、监管机构和患者团体)的紧急参与,这些权利可能会在医疗AI快速发展的进程中被忽视。

普洛格教授强调:“人工智能正在改变医疗行业,但这种变革不能以牺牲患者自主权和信任为代价。现在是时候定义那些能够在AI驱动的医疗体系中保护和赋权患者的权利了。”


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。

本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。