世卫组织欧洲区域办事处表示,随着人工智能在医疗领域的应用日益广泛,必须加强法律和伦理保障措施,以保护患者和医护人员权益。该结论基于对世卫组织欧洲区域53个成员国中50个国家的医疗系统AI应用与监管情况的调查报告,该区域范围包括中亚地区。
报告指出,仅有4个国家(占8%)已制定专门的国家AI健康战略,另有7个国家正在推进相关战略制定工作。
世卫组织欧洲区域健康系统主任娜塔莎·阿佐帕迪-穆斯卡特(Natasha Azzopardi-Muscat)在声明中表示:"我们正站在十字路口。人工智能要么用于改善民众健康福祉、减轻疲惫不堪的医护人员负担并降低医疗成本,要么将损害患者安全、侵犯隐私并固化医疗资源获取的不平等。"
目前,欧洲近三分之二的国家已在影像诊断和疾病检测等领域应用AI辅助诊断技术,半数国家引入了AI聊天机器人用于患者互动与支持服务。例如,都柏林马特医院近期在其放射科全面部署人工智能系统,用于分析所有头部扫描以检测出血、胸部扫描以识别血栓以及骨骼X光片以发现骨折,确保最紧急需求的患者优先获得诊疗。
今年9月,爱尔兰皇家外科医学院启动了"医疗领域人工智能"课程,都柏林圣三一学院也在今年早些时候开设了类似课程。
世卫组织敦促成员国应对AI带来的"潜在风险",包括"存在偏见或质量低劣的输出结果、自动化偏见、临床医生技能退化、医患互动减少以及边缘化群体医疗结果不平等"等问题。世卫组织欧洲区域指出,监管措施正难以跟上技术发展速度,86%的成员国表示法律不确定性是AI应用的主要障碍。
世卫组织数据、人工智能与数字健康区域顾问大卫·诺维略·奥尔蒂斯(David Novillo Ortiz)强调:"若缺乏明确的法律标准,临床医生可能不愿依赖AI工具,而患者在出现问题时也将面临维权路径不清的困境。"
世卫组织欧洲区域建议各国应明确责任归属、建立伤害补救机制,并确保AI系统在应用于患者前必须经过安全性、公平性及实际效果测试。
【全文结束】


