凯蒂·亚当斯 报道于2025年9月21日 19:28
代理型人工智能正开始在医疗健康领域引起轰动,但一位律师警告称,这也可能将行业推入法律责任和患者安全的灰色地带。律所元宇宙法律(Metaverse Law)创始人李莉(Lily Li)表示,如果没有强有力的保障措施,错误可能导致生死后果。
AI代理——即设计用于在几乎没有或无需人类干预的情况下执行特定功能的自主任务系统——正在医疗健康领域获得关注。行业面临在不降低护理质量的前提下降低成本的巨大压力,健康科技专家认为代理型AI可能是帮助实现这一艰巨目标的可扩展解决方案。
然而,据一位网络安全和数据隐私律师称,这一AI类别比其先前版本带来更大的风险。
元宇宙法律(Metaverse Law)创始人李莉指出,代理型AI系统按定义旨在代表消费者或组织处理行动——这将人类排除在潜在重要决策或任务之外。
“如果输出中存在幻觉或错误,或训练数据中有偏见,这些错误将产生现实影响,”她宣称。
例如,AI代理可能犯下错误,如错误重新配药或错误管理急诊分诊,可能导致受伤甚至死亡,李莉表示。
这些假设场景凸显了当责任从持证医疗提供者转移时出现的灰色地带。“即使在AI代理做出‘正确’医疗决策的情况下,如果患者对治疗反应不佳,目前尚不清楚现有医疗事故保险是否会覆盖索赔,尤其是在没有持证医师参与的情况下,”李莉评论道。
她指出,医疗领导者正运作在一个复杂领域——她认为社会需要应对代理型AI的潜在风险,但仅限于这些工具相比类似情境下的人类医师导致额外死亡或伤害增加的程度。
李莉还指出,网络犯罪分子可能利用代理型AI系统发起新型攻击。为避免这些危险,她建议医疗组织应将代理型AI特定风险纳入其风险评估模型和政策中。
“医疗组织应首先审查基础数据的质量,以消除将输入模型学习的编码、计费和决策中的现有错误和偏见。然后,确保对AI可采取的行动类型设置保障措施——例如AI请求的速率限制、请求来源的地理限制、针对恶意行为的过滤器,”李莉陈述道。
她还敦促AI公司采用AI代理之间的标准通信协议,以实现加密和身份验证,避免这些工具的恶意使用。
在李莉看来,代理型AI在医疗健康领域的未来可能较少取决于其技术能力,而更多取决于行业在使用这些模型时构建信任与问责的能力。
【全文结束】