BeyondID报告警告:AI代理正成为日益增长的内部威胁

AI Agents Pose Growing Insider Threat, Warns BeyondID Report

美国英语科技与安全
新闻源:Security Info Watch
2025-06-26 05:00:00阅读时长5分钟2067字
AI代理内部威胁身份治理医疗行业健康保险可携性和责任法案零信任原则行为监控异常检测安全管理数据保护

一份来自BeyondID的新报告警告称,自主AI代理正在企业网络中成为强大但缺乏监控的“内部人员”——而大多数企业尚未准备好保护其系统免受这些潜在威胁的影响。

AI代理正越来越多地融入企业系统,在网络中自主执行任务,但通常缺乏足够的监管。根据管理身份解决方案提供商BeyondID发布的这份报告,这些AI代理在企业环境中越来越像“数字员工”,但组织却普遍未能将其视为真正的“雇员”对待。

该公司于2025年对美国IT领导者进行的一项调查显示了一个令人担忧的现象:尽管大多数企业声称已为网络安全部署了人工智能技术做好准备,但只有不到一半的企业实际监控了其所部署AI系统的访问权限或行为。

AI代理是一种能够与企业应用程序交互、自主做出决策并执行任务(从数据分析到系统访问和工作流程执行)的自主软件系统。随着这些系统逐渐嵌入日常运营,它们带来了一种新的身份风险类型:拥有广泛权限但责任有限的“数字内部人员”。

这份题为《AI代理:新的内部威胁?》的报告强调,AI代理正成为网络中不受监控、高权限的操作者,能够在几乎没有监督的情况下自主运行并访问敏感系统。

“企业往往高估了自身的AI安全准备水平,”BeyondID首席执行官Arun Shrestha向《SecurityInfoWatch》解释道。“这通常是由于认知偏差,他们认为自己比实际情况拥有更多专业知识或控制力,同时也源于对AI特定风险缺乏深入理解。”

竞争压力也在加剧这一问题。“快速采用AI工具可能会增加这种过度自信,有时甚至没有适当的监督——也就是所谓的‘影子AI’,”Shrestha补充道,他指的是未经正式安全审查而部署的AI系统。

AI代理需要身份治理,而不仅仅是基础设施

据Shrestha称,部分问题源于企业对AI的认知方式。“许多企业将AI视为被动技术,而非能够影响系统和决策的主动代理。”这种认知差距加上影子AI的兴起,导致许多组织忽视了关键的治理功能。

为了弥合这一差距,BeyondID敦促企业重新思考其身份和访问管理(IAM)策略,以反映AI系统在现实世界中的角色。

“安全领导者必须将AI代理视为像人类一样的‘一级身份’,”Shrestha解释道。“对其实施类似于人类和服务账户的监督措施至关重要,例如分类权限、监控活动、执行政策,并将AI行为整合到威胁检测工具中。”

幸运的是,这一转变并不需要完全颠覆现有的IAM基础设施。“集成商和首席信息安全官(CISO)可以通过将AI代理视为现有IAM系统中的独立身份,来谨慎更新其IAM策略,”Shrestha表示。

他建议企业为每个AI代理分配明确的所有权和描述性元数据,以支持可见性和生命周期管理。与此同时,应用基于上下文的访问控制(例如根据时间、敏感性或位置限制任务)有助于减少暴露风险,同时不干扰运营。即时配置、自动化访问审查和行为分析等方法也可以被分层应用于现有框架中,以加强对这些身份的安全性。

医疗行业的风险:高风险,低控制

虽然AI驱动的效率提升受到各行业的欢迎,但医疗行业似乎尤为脆弱。报告显示,过去一年中,61%的医疗机构遭遇了与身份相关的攻击,但仅有17%的机构将合规性视为首要关注点。同时,42%的机构未能通过与身份相关的审计。

Shrestha表示,在这一高度监管的环境中,AI的采用速度远远超过了治理能力。“AI代理和机器人的出现引入了新的访问点,但生命周期管理薄弱,”他指出。“这些系统通常具有动态的即时访问权限,并可能跳过审查周期。”

医疗机构还面临额外的合规负担。“未经批准使用影子AI工具会增加HIPAA(健康保险可携性和责任法案)风险,而AI决策的有限可审计性则使合规变得更加复杂,”Shrestha警告说。在联合医疗生态系统中,这种复杂性进一步加剧,因为AI必须跨电子病历(EMR)、索赔系统和云平台运作。

为了帮助医疗服务提供者管理这些风险,BeyondID倡导零信任原则和针对AI的原生IAM解决方案。“像BeyondID这样的集成商通过现代化身份治理和部署采用零信任原则、自动化合规性和增强数据保护的AI原生IAM解决方案,为医疗行业提供支持,”他表示。这包括对所有交互(无论是人类还是机器)进行身份验证,同时通过分析提高可观测性,并在入职工作流中嵌入治理。

监控AI:行为基准和异常检测

报告强调,即使AI代理并非恶意,如果放任不管,也可能造成损害。Shrestha建议通过持续监控和行为分析,确保AI活动在政策范围内。

“安全团队应关注异常行为,例如奇怪的访问模式、权限升级、试图规避权限、大规模数据传输或系统资源的异常变化,”他表示。

一个强有力的监控策略始于建立行为基准——了解每个AI代理的“正常”表现是什么样的。在此基础上,实时分析和自适应风险评分可以帮助区分良性自动化操作和潜在威胁。

“结合自动警报与人工监督,可以确保识别真实威胁,同时不会产生过多的误报,”Shrestha指出。

他还建议,AI代理应在设计中记录其预期行动。“让AI代理记录其预期行动也有助于团队验证其行为是否符合批准的功能,”他表示,这种方法提高了透明度,并更容易追踪未经授权或意外的活动。

将AI视为用户,因为它正是如此行事

随着AI从静态工具演变为动态操作者,企业必须相应调整其安全态势。治理框架、零信任政策和身份监督都是降低风险和提高问责制的关键要素。

“AI正在像用户一样行事——登录、做决策、访问系统,”Shrestha说道,“现在是时候让安全团队开始将其当作用户对待了。”


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。

本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。