哥本哈根:世卫组织欧洲办事处周三发布的一份报告警告称,医疗保健中人工智能的日益广泛应用要求为患者和医务人员提供更强有力的法律和伦理保护。
这些发现源自一项关于人工智能在欧洲卫生系统中采用与监管情况的研究,该研究基于世卫组织欧洲区域53个国家中50个国家的反馈数据,该区域范围亦涵盖中亚。
报告显示,目前仅有4个国家(约占8%)制定了专门的国家医疗人工智能战略,另有7个国家正处于战略制定进程中。
"我们正站在一个十字路口,"世卫组织欧洲办事处卫生系统主任娜塔莎·阿佐帕迪-穆斯卡特(Natasha Azzopardi-Muscat)在声明中表示。
"人工智能要么将被用于改善民众健康与福祉、减轻疲惫不堪的卫生工作者负担并降低医疗成本,要么可能破坏患者安全、损害隐私并在医疗服务中固化不平等现象,"她指出。
该区域近三分之二的国家已开始使用人工智能辅助诊断技术,尤其在医学影像与疾病检测领域,而半数国家已引入人工智能聊天机器人用于患者互动与支持服务。
世卫组织敦促其成员国积极应对与人工智能相关的"潜在风险",包括"存在偏见或低质量的输出结果、自动化偏见倾向、临床医生专业技能退化、医患互动减少以及对边缘化人群产生不公平医疗结果"。
世卫组织欧洲办事处指出,监管机制正艰难追赶技术发展步伐,并强调86%的成员国将法律不确定性视为人工智能应用的主要障碍。
"若缺乏明确的法律标准,临床医生可能不愿依赖人工智能工具,且当出现问题时患者将面临无明确追索途径的困境,"世卫组织数据、人工智能与数字健康区域顾问大卫·诺维略·奥尔蒂斯(David Novillo Ortiz)表示。
世卫组织欧洲办事处建议各国应明确责任归属机制,建立伤害补救体系,并确保人工智能系统"在应用于患者前经过安全性、公平性及真实世界实效性的严格测试"。
【全文结束】


