哥本哈根——世卫组织欧洲区域近日发布报告警告,人工智能在医疗领域的日益普及亟需更强有力的法律和伦理保障措施,以保护患者及医护人员权益。该报告基于世卫组织欧洲区域53个成员国中50个国家的反馈,分析了欧洲医疗系统中人工智能的采用与监管现状。
报告指出,仅4个国家(占比8%)已制定专门的国家AI医疗战略,另有7个国家正在推进相关战略制定。世卫组织欧洲区域卫生系统主任娜塔莉亚·阿佐帕迪-穆斯卡特表示:"我们正站在十字路口:人工智能要么用于改善民众健康福祉、减轻精疲力竭的医护人员负担并降低医疗成本,要么将损害患者安全、侵犯隐私并固化医疗不平等。"
目前该区域近三分之二的国家已在诊断领域应用AI辅助技术,尤其在影像识别和疾病检测方面;半数国家引入了面向患者服务的AI聊天机器人。世卫组织敦促成员国应对AI相关"潜在风险",包括"输出结果存在偏见或质量低下、自动化偏见、临床技能退化、医患互动减少以及对边缘群体产生不平等治疗结果"等问题。
世卫组织欧洲区域指出,监管措施难以跟上技术发展步伐,86%的成员国表示法律不确定性是AI应用的主要障碍。世卫组织数据、人工智能与数字健康区域顾问大卫·诺维略·奥尔蒂斯强调:"缺乏明确法律标准时,临床医生可能不愿依赖AI工具,患者若遭遇问题也将无明确追责途径。"该机构建议各国应明确责任归属、建立伤害追责机制,并确保AI系统在应用于患者前"经过安全性、公平性及现实世界有效性的充分测试"。
【全文结束】


