![]()
2026年2月25日,Gartner发布了首份守护智能体市场指南,标志着这一新兴类别的重要里程碑。对于不熟悉Gartner各种报告类型的人来说,市场指南定义了一个市场,并解释客户可以期待它在短期内做什么。市场指南专注于早期、更混乱的市场,不对市场内的供应商进行评级或定位,而是更常见地概述在市场中提供产品的代表性供应商的属性,以进一步洞察市场本身。
如果守护智能体这个术语不熟悉,Gartner的定义很简单:"守护智能体监督AI智能体,帮助确保智能体行动与目标和边界保持一致。"企业安全和身份领导者可以申请Gartner守护智能体市场指南的限量分发副本。
只需阅读华尔街日报、金融时报、福布斯、彭博等新闻就能看到,AI智能体现在已成为现实。Team8的2025年CISO Village调查量化了这一点,发现:
近70%的企业已在生产环境中运行AI智能体(任何可以回答和行动的系统)。
另有23%计划在2026年部署。
三分之二的企业正在内部构建这些智能体。
然而,在市场指南中,Gartner断言这种快速的企业采用速度超过了传统的治理控制。这提高了"随着AI智能体变得更加自主并嵌入关键工作流程,运营失败和不合规的风险会升级"的风险。
我们同意这一观点,最近我们读到了由自主AI智能体行动导致的云提供商中断事件,这并不令我们感到惊讶。我们在早期采用中看到的是,与传统服务账户相比,AI智能体部署创造了更多的身份暗物质——不可见和未管理的身份层。这包括可能提供的本地凭证认证、容易被遗忘的永不过期令牌、无论用户或工作如何都被授予完全权限访问等等。
不仅如此,正如我们在关于"懒惰大语言模型"的文章中分享的那样,AI智能体在设计上是寻找捷径的;总是寻找最有效的路径来为每个提示返回满意的结果。然而,在这样做时,它们经常利用身份暗物质——孤儿、休眠账户或松散的令牌,通常具有本地明文凭证和过度权限——允许它们到达"工作结束",无论它们是否应该被允许这样做。这就是意外或不可想象的事件如何产生的。
仿佛这还不足以构成商业风险,我们注意到2026年CrowdStrike全球威胁报告进一步分享:"对手也在积极利用AI系统本身,向90多个组织的生成式AI工具注入恶意提示并滥用AI开发平台。"
要了解更多关于AI智能体如何既扩展我们所谓的"身份暗物质"又利用它本身的信息,请查看我们之前在《黑客新闻》上的文章。
因此,在确立了AI智能体监督的需求之后,我们的下一个问题是如何在技术上解决这一需求。在我们看来,这就是Gartner极其有价值的地方——审视市场和供应商,了解什么是可能的,并将其缩减到在要解决的问题下最有价值的。
市场指南概述了3个核心领域的强制性功能:
AI可见性和可追溯性:您能看到并跟踪每个AI智能体的行动吗?
持续保证和评估:如何保持信心,确保智能体保持安全免受破坏并在行动中保持合规?
运行时检查和执行:"确保AI智能体的行动和输出与定义的意图、目标和治理策略匹配,防止意外行为。"
市场指南中详细说明了这些核心领域的9个详细功能。其中许多功能帮助塑造了我们认为支撑AI智能体安全(和高效)使用的5个原则中的许多。
将AI智能体与人类发起者配对:我们相信每个智能体不仅应该被识别和监控,还应该与一个负责任的人类操作员绑定。
动态、情境感知访问:我们相信AI智能体不应持有常设、永久权限。它们的权限应该是有时限的、会话感知的,并限制在最小权限内。
可见性和可审计性:在我们看来,可见性不仅仅是"我们记录了它"。您需要将行动与数据范围联系起来:智能体访问了什么、更改了什么、导出了什么,以及该行动是否涉及受管制或敏感数据集。
企业级治理:在我们看来,AI智能体采用应该在单一、一致的治理架构内扩展到新系统和遗留系统,以便安全、合规和基础设施团队不是在孤岛中工作。
良好IAM卫生的承诺:与所有身份、认证流程、授权权限和实施控制一样,强有力的卫生措施——在应用服务器和MCP服务器上——对于保持每个用户在适当范围内至关重要。
即便如此,即使供应商试图解决相同的守护智能体要求,他们经常使用非常不同的架构模型来解决问题。
Gartner概述了六种新兴的交付和集成方法,对于采用者来说,这比他们最初看起来更重要。这些不仅仅是包装选择。它们决定了控制在哪里、您实际获得多少可见性、策略的可执行性如何,以及您的智能体资产中有多少将落在覆盖范围之外。
以下是我们对每种模型的快速看法:
独立监督平台通常是最容易开始的地方。它们将日志、遥测数据和事件收集到一个地方,可以提供有意义的态势可见性、可审计性和分析。但这些平台中的许多仍然更倾向于观察而不是干预。这是有用的,但这与控制不同。如果您的AI风险态势依赖于在坏行动发生之前阻止它们,仅仅可见性是不够的。
AI/MCP网关是最直观的模型:在中间放置一个控制点并强制智能体流量通过它。这可以为跨多个智能体的监控和策略执行创建一个强大的集中层。但只有当流量实际通过该层时才有效。实际上,网关可能既成为瓶颈又成为虚假安慰。如果团队绕过它们,或者智能体交互发生在受管辖路径之外,可见性会迅速破裂。
嵌入式或内联运行时模块更接近执行,位于智能体平台、AI管理平台或大语言模型代理内部。这使得它们很有吸引力,因为它们通常更容易开启并且可以更立即地行动。缺点是它们通常与平台绑定。它们管理它们所在的环境,而不是更广泛的企业。对于采用者来说,这意味着良好的本地控制,但如果您的智能体跨越多个堆栈,企业范围内的一致性就会很弱。
编排层扩展在编排已经作为多智能体工作流操作层的环境中很有吸引力。它们可以在工作流级别添加策略、可见性和监督。但它们也假设编排是有意义控制应该位于的地方。只有当组织实际通过通用编排层运行其智能体时,这才是真的。许多组织不会这样做。因此,对于采用者来说,这种模型在正确的架构中是强大的,在错误的架构中是无关的。
混合边缘-云模型是事情开始变得更现实的地方。正如Gartner所指出的,随着智能体生态系统变得更以端点为中心,这些变得更加重要。这种模型在本地执行环境和云分析之间分散监督,这可以减少延迟并提高运行时相关性。对于采用者来说,价值很明确:它避免了在一个瓶颈点过度集中一切。但它也提高了复杂性门槛。分布式治理在理论上更强大,但在实际中更难实现好。
协调机制标准、API和钩子与其说是部署模型,不如说是它们之间的连接组织。而今天,这种组织是不成熟的。Gartner明确指出,跨AI智能体平台的集成仍然很困难,因为标准接口仍然缺乏。这意味着采用者应该小心不要将"支持标准"误认为"在生产中无缝工作"。协调层是必要的,但它还不够成熟,不能被视为已解决。
无论技术方法如何,Gartner明确指导需要比单个云提供商、身份工具或AI平台内置的单个AI智能体治理更多的东西。具体来说,他们指出了以下内容:
"一个中立、可信的守护智能体层,具有多个守护智能体执行独立但集成的监督功能,强制跨所有提供商的路由。因此,守护智能体充当缺失的通用执行机制。"
对我们来说,市场指南最重要的长期启示是,守护智能体不会简单地成为嵌入在AI平台中的另一个功能。正如我们所读到的,Gartner相当明确:"企业将需要独立的守护智能体层,跨云、平台、身份系统和数据环境运行。"
为什么?因为AI智能体本身不存在于一个地方。
智能体与API、应用程序、数据存储库、基础设施,甚至跨多个环境的其他智能体交互。云提供商可能能够监督在其自己生态系统内运行的智能体,但一旦这些智能体调用工具、委派任务或跨提供商操作,没有单一平台可以单独执行治理。
这就是为什么我们相信Gartner论证组织将越来越多地部署企业拥有的守护智能体层,这些层位于单个平台之上并监督整个企业环境中的智能体。
换句话说,治理不能只存在于创建或托管AI智能体的平台内部。它需要存在于它们之上。
简单地说:智能体治理的未来不会是平台原生监督。它将是企业拥有的监督。早期采用该架构的组织将能够更好地安全扩展智能体AI,而不会在其基础设施、数据和身份中引入新一代的不可见自动化风险。
尽管对AI智能体以及关于它们取代工作的大品牌新闻故事有着所有的兴奋,守护智能体市场仍然处于早期。根据Gartner,"今天,守护智能体部署主要是原型或试点,尽管先进组织已经在使用它们的早期版本来监督AI智能体。"
但它来得很快。他们注意到"守护智能体市场——涵盖自主AI智能体的监督、安全和治理技术——正在进入加速增长阶段,由跨行业智能体AI的快速采用支撑。"
坦率地说,我们会对整个智能体市场做出类似的声明。是的,我们已经在Orchid公司和产品中实施了AI智能体。但组织,包括我们自己,只是刚刚触及可能性的表面。个人员工是否已经开始使用自己的个人AI智能体?是的。许多技术供应商是否提供内置AI智能体,超越简单的聊天机器人?是的。一些最早的采用者是否已经实施了企业标准平台来增强或替换工作?是的(但带着一些怀疑的犹豫)。
然而,俗话说,马出了马厩后再关门为时已晚。Orchid Security建议您尽早确保AI智能体可见性,并且肯定要在马出马厩之前建立与人类用户所需的相同身份和访问管理护栏和治理,以类似地指导他们的AI伙伴。
AI智能体已经到来。它们已经在改变企业的运营方式。
挑战不是是否使用它们,而是如何治理它们。
AI智能体的安全采用需要将身份从业者熟知的相同原则——最小权限、生命周期管理和可审计性——应用于遵循此协议的新一类非人类身份。
如果身份暗物质是我们无法看到或控制的总和,那么如果不加以控制,未管理的AI智能体可能成为其增长最快的来源。现在行动将它们带入光明的组织将是那些能够在不牺牲信任、合规性或安全性的情况下快速使用AI的组织。这就是为什么Orchid Security正在构建身份基础设施来消除暗物质,并使智能体AI采用在企业规模部署中安全。
Q&A
Q1:什么是守护智能体?它的作用是什么?
A:守护智能体是监督AI智能体的系统,帮助确保智能体行动与目标和边界保持一致。它们提供AI可见性和可追溯性、持续保证和评估以及运行时检查和执行功能,防止AI智能体出现意外行为或违反安全策略。
Q2:为什么企业需要独立的守护智能体层而不是依赖单一平台?
A:因为AI智能体会与多个环境中的API、应用程序、数据存储库和其他智能体交互。单一云提供商或平台无法监督跨提供商的智能体活动,因此需要企业拥有的独立守护智能体层来提供全面治理。
Q3:什么是身份暗物质,它与AI智能体有什么关系?
A:身份暗物质指不可见和未管理的身份层,包括本地凭证认证、永不过期的令牌、过度权限访问等。AI智能体部署会创造更多身份暗物质,它们在寻找最有效路径时经常利用这些孤儿、休眠账户或松散令牌来完成任务。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.