智能体AI(Agentic AI)开始在医疗健康领域崭露头角,但元宇宙律师事务所(Metaverse Law)创始人李莉警告称,该技术可能将行业推入责任归属与患者安全的法律灰色地带。她表示,在缺乏严格监管的情况下,系统错误将产生生死攸关的后果。
医疗科技专家认为,智能体AI——这类无需或仅需极少人工干预即可执行特定任务的自主系统——有望成为解决行业降本增效难题的可扩展方案。然而,网络安全与数据隐私律师李莉指出,此类AI的风险远高于前代技术。她强调,智能体AI的设计初衷即是代表消费者或机构执行操作,这意味着关键决策环节可能完全脱离人类监督。
"若系统输出存在幻觉、错误或训练数据偏见,这些缺陷将直接影响现实世界,"李莉声明。她举例称,智能体AI可能错误续开处方或误判急诊分诊优先级,进而导致患者受伤甚至死亡。这些假设场景凸显了当责任主体从持证医师转移时出现的法律真空。
"即便AI代理做出'正确'医疗决策,但患者对治疗反应不佳,若无持证医师介入,现行医疗事故保险体系是否能覆盖相关索赔仍不明确,"李莉指出。她认为医疗领导者正面临复杂局面:社会需管控智能体AI的潜在风险,但仅限于其造成的超额死亡或伤害超过同等水平人类医师的情形。
李莉同时警示,网络犯罪分子可能利用智能体AI系统发起新型攻击。为规避风险,医疗机构应将智能体AI特有风险纳入风险评估模型与政策框架。她建议:"首先审查底层数据质量,消除编码、计费及决策中的现有错误与偏见;其次为AI操作设置防护机制,如请求频率限制、地理区域约束及恶意行为过滤器。"
她还呼吁AI企业为其智能体建立标准通信协议,通过加密与身份验证技术防止工具被恶意滥用。在李莉看来,智能体AI在医疗领域的未来,或将更多取决于行业构建信任与问责机制的能力,而非单纯的技术实力。
【全文结束】