《AI法案》于8月1日生效,对AI应用进行风险分类。低风险包括视频游戏,而聊天机器人则要求透明度。高风险类别,如AI诊断工具,有严格的安规规则,增加了医疗法规的复杂性。研究人员指出,低风险AI的监督和问责机制不足,可能导致潜在危害和医疗系统信任的侵蚀。
《AI法案》经过多年的讨论,追溯到2021年4月,预计将于2027年8月在欧盟成员国全面实施。除医疗保健领域外,该欧洲法规还根据其风险对所监管的应用程序进行分类。大多数基于AI的视频游戏或图像编辑应用程序属于最低风险类别,聊天机器人则属于特定透明度风险类别,其所有者必须告知用户他们正在与机器互动。高风险类别包括部分医疗保健领域,不可接受的风险类别则直接被法规禁止。
《AI法案》为现有的医疗法规增加了一层监管。例如,高风险类别包括存储用户数据的AI诊断工具。在这种情况下,《AI法案》补充了2017年的《医疗器械法规》,增加了运营商必须遵守的强制性安全和质量要求。偶尔使用AI处理紧急电话也属于这一类。低风险假设包括用于监测运动期间生命体征的移动应用程序或生命支持机器中使用的传感器。一般来说,不用于医疗护理或无需第三方合格评定的医疗设备属于此类。
阿姆斯特丹大学和国际健康行动组织(HAI)的研究人员汉娜·范·科尔夫肖滕和扬内克·范·奥伊尔肖特指出,正是在这一类别中,《AI法案》面临一些挑战。缺乏具体规则导致了对最低风险设备的全面问责和监督机制的缺失。这可能会导致无效或潜在有害系统的泛滥。缺乏具体规定可能损害AI用户对医疗系统的信任。这种情况可能因缺乏对私人医疗提供者的强制评估工具而加剧。科尔夫肖滕和奥伊尔肖特指出,这可能导致各提供者之间以及各成员国之间患者权利保护的差异。
实施过程中的另一个问题是明确何时可以无需任何类型的监管控制使用AI,即在《AI法案》规定的国家安全目的优先的情境下(如流行病)或科学研究中。因此,两位作者认为,有必要在法规中定义某些概念,在国家立法中规定评估AI对基本权利影响的机制,并促进医疗系统各利益相关者的参与,包括技术开发者。
(全文结束)


