![]()
企业部署的AI代理数量,预计三年内将从现在的数百万暴涨到3000万个。这不是预测,是Gartner去年秋天给数字。问题是:谁来管这群"数字员工"?
Nutanix在芝加哥.NEXT 2026大会上甩出一整套平台更新,核心就一个字——"leverage"(利用)。不是让你买新硬件,是在现有设备上跑起来。产品管理执行副总裁Thomas Cornely的原话:「客户压力巨大,所有人都在找落地方法。」
代理泛滥:从"能跑"到"敢跑"的鸿沟
副总裁Ketan Shah把现状说得很直白:「代理会爆炸式增长,没错,它们会到处乱跑。不知不觉间,成本就累积起来了。」
这个"乱跑"有多真实?想象一个场景:销售部门用了三个不同的AI工具写邮件,市场部又上了两个做内容生成,IT部门自己搭了一个监控服务器状态的代理。每个都在调用OpenAI、Anthropic或本地模型,token像自来水一样流走。月底账单来了,没人说得清哪笔钱花在哪。
Nutanix的新武器叫AI Gateway。功能拆解成三块:看见谁在跑、管住花多少钱、锁死谁能访问。Shah解释,这玩意儿要插在所有代理和模型端点之间,像高速公路收费站——不是拦车,是记账+安检。
治理层的价值,在于把"事后审计"变成"事中拦截"。
企业现在的痛点不是缺代理,是缺"代理的代理"。Cornely提到一个细节:客户反复问的是"怎么在已有硬件上跑更多",而不是"给我推荐新芯片"。这和NVIDIA那种"买更多GPU"的叙事完全不同。
全栈押注:四个更新方向的底层逻辑
这次发布被Shah称为"Nutanix史上最大版本之一"。四个方向值得拆开看:
第一,AI就绪。不是口号,是具体工具链——从模型部署到推理优化,全包在平台里。
第二,统一虚拟机和容器管理。代理跑在哪?可能是K8s容器,也可能是传统VM。Nutanix想让你在同一套界面里管,不用切来切去。
第三,硬件生态扩展。这里有个微妙信号:不绑定特定芯片。AMD、Intel、NVIDIA都能接,甚至包括新兴的AI加速器。Cornely强调的"leverage what you have"在这里落地——客户不用为了跑AI重建数据中心。
第四,大规模分布式管理。代理不会只待在一个机房,可能跨云、跨边缘、跨总部和工厂。Nutanix在赌:混合云架构的天然优势,能接住这波代理碎片化。
平台厂商的胜负手,从"功能清单"转向"治理深度"。
这个判断有数据支撑。Enterprise Strategy Group今年3月的调研显示,67%的企业将"AI治理工具"列为2026年基础设施采购的首要考量,超过了"模型性能"(54%)和"成本优化"(61%)。
生态卡位:为什么现在押治理层
Nutanix的AI Gateway有个设计细节:支持开放框架。MCP(模型上下文协议)、A2A(代理间通信协议)这些社区标准,原生接入。
这步棋的深意在于——不赌赢家。现在代理框架混战:LangChain、LlamaIndex、微软的AutoGen、谷歌的ADK,各吹各的。Nutanix选择做"管道"而不是"内容",无论上面跑什么框架,网关都能插进去计费+管控。
Shah在采访中提到一个客户场景:某制造业巨头,工厂里跑了200多个独立代理,分别来自四个不同供应商。之前用Excel表格管调用记录,现在通过网关统一视图,token成本下降37%,合规审计时间从两周缩到两天。
治理层的竞争,本质是"信任基础设施"的竞争。
这个定位让Nutanix避开了和云厂商的正面冲突。AWS、Azure、GCP都在推自己的代理服务(Bedrock Agents、Azure AI Agent Service),但企业客户越来越担心"锁定"。Nutanix的卖点是"跨云一致体验"——同样的治理策略,在本地数据中心、AWS、Azure上行为一致。
Cornely的原话:「我们不做模型,不做框架,我们做的是让这些东西在企业环境里能安全、可预测地运行。」
硬件中立:一场关于"旧资产"的博弈
AI基础设施有个隐形门槛:新硬件的采购周期。一台DGX服务器从下单到上架,平均4-6个月。但企业等不起——业务部门这周就要上线客服代理。
Nutanix的解法是把AI负载"降级"到通用硬件。通过软件优化,让现有的Intel Xeon、AMD EPYC服务器也能跑推理任务。不是和GPU比性能,是比"现在就能用"。
这个策略有历史参照。VMware在2000年代靠"服务器虚拟化"吃掉了x86服务器的红利,让一台物理机跑多个虚拟机。Nutanix现在想复刻的,是"AI负载的虚拟化"——把昂贵的GPU资源池化,把便宜的CPU资源利用起来,让代理根据任务复杂度自动选择落脚点。
Shah透露,下一代平台会内置"智能调度":简单查询走本地CPU模型,复杂任务路由到云端GPU,全程对应用层透明。
资源调度的颗粒度,决定了代理经济的可行性。
这里有个技术细节值得注意:Nutanix在.NEXT上宣布支持NVIDIA的NIM微服务,同时也接入了Hugging Face的推理端点。这种"既拥抱封闭生态、又保留开放退路"的做法,是典型的企业级厂商生存术。
竞争格局:谁在做同样的事
代理治理不是新赛道。Databricks去年推出AI Gateway,主打模型路由和成本管控。Cloudflare的AI Gateway走边缘路线,强调低延迟。甚至老牌监控厂商Datadog,也在把APM(应用性能监控)能力延伸到AI代理追踪。
Nutanix的差异化在于"全栈位置"。别人做网关,是SaaS层的一个功能;Nutanix做网关,是从存储、计算、网络到应用层的垂直整合。这意味着更深度的可见性——不仅能看到代理调用了哪个模型,还能看到这次调用占用了多少存储I/O、是否触发了网络瓶颈。
Cornely在采访中打了个比方:「就像你不仅要知道哪辆车超速了,还要知道这条路本身有没有坑。」
这个比喻指向Nutanix的核心资产:超融合基础架构(HCI)时代积累的数据中心"全知视角"。代理只是最新的工作负载类型,而Nutanix认为自己比纯AI厂商更懂"企业环境里的脏活累活"——权限继承、审计日志、备份恢复、灾难切换。
企业AI的落地速度,取决于基础设施的"兼容深度"而非"技术高度"。
一个反直觉的数据:Nutanix的AI相关咨询量,60%来自已有客户,而非新获客。这说明企业首先想在"熟悉的地盘"里试验AI,而不是贸然拥抱新平台。
风险与变量:这套叙事里的裂缝
押注治理层也有代价。AI Gateway的功能复杂度,可能拖累Nutanix引以为傲的"简洁性"。早期测试用户反馈,策略配置界面有17个参数需要手动调优,学习曲线比预期陡峭。
另一个变量是云厂商的反击。AWS在re:Invent 2025已经展示了"代理自动发现"功能,能识别账户内所有Bedrock Agents的调用链。如果云厂商把治理能力下沉到基础设施层,第三方网关的价值会被压缩。
Shah的回应是强调"中立性":「我们不会优先推荐任何模型供应商,成本优化算法对OpenAI和本地Llama一视同仁。」
这个承诺能维持多久,取决于Nutanix的商业模式压力。目前AI Gateway作为平台组件免费包含,但高级功能(如跨云成本预测、合规自动化报告)计划按代理数量收费。定价策略的微妙平衡,会影响客户采用意愿。
Cornely在采访末尾提到一个细节:某零售客户原本计划2026年Q2采购500台GPU服务器,试用AI Gateway后,决定先拿现有200台通用服务器跑起来,把预算挪到模型微调上。
「这才是我们想听到的,」他说,「不是帮我们卖更多硬件,是帮客户把AI真正用起来。」
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.