凌晨三点,某跨国企业的安全运营中心突然警报大作——一次针对其云基础设施的供应链攻击正在展开。安全团队没有手忙脚乱地翻查日志,而是向系统输入了一个自然语言指令:"追踪这次攻击的完整链条,定位所有受影响节点,生成修复方案。"90秒后,一份包含漏洞根因、横向移动路径和补丁优先级的报告已经就绪。
这不是科幻场景。Zscaler与OpenAI刚刚宣布的深度合作,正在把这种能力变成标准配置。更关键的是,双方选择了一条与众不同的路径:不是把AI当成外挂工具,而是直接"编译"进零信任架构的底层。
![]()
一场被低估的战略合作
4月16日,Zscaler正式加入OpenAI的"可信网络访问"(Trusted Access for Cyber,简称TAC)计划。这个看似技术性的公告,实则触及了企业AI部署的核心痛点。
TAC是一个分级准入框架,面向经过审核的防御方提供能力递增的模型访问权限。Zscaler作为首批成员,获得了GPT-5.4-Cyber的早期深度访问权——这是一个专为防御性网络安全任务调优的变体模型,覆盖漏洞发现、二进制分析和攻击链推理等场景。
「我们的目标是把前沿模型变成核心基础设施,而不是边缘的生产力插件。」Zscaler首席架构师在内部技术分享中这样定位这次合作。
这种"编译式"集成与市面上常见的AI安全工具存在本质区别。多数厂商将类ChatGPT系统作为独立模块部署,安全团队需要手动切换上下文、粘贴代码片段、等待返回结果。Zscaler选择的路径是:让GPT-5.4-Cyber和Codex风格的安全模型直接嵌入检测管道、软件开发生命周期(SDLC)工作流和红队测试工具链。
具体而言,Zscaler正在构建一套多智能体安全架构。开发者在编写代码时,系统实时调用安全调优模型审查代码、配置和依赖关系;安全运营团队在调查事件时,模型自动关联跨域日志、生成攻击时间线并提出处置建议。这种嵌入不是简单的API调用包装,而是将模型的推理能力重构为可编排的安全服务单元。
从"左移"到"知识内嵌"
软件安全领域有个流行概念叫"shift left"——把安全检测尽可能提前到开发早期。Zscaler与OpenAI的合作把这个理念推向了极端。
传统左移实践通常是"螺栓式"的:在DevOps流水线中插入静态分析、依赖扫描等检查点,发现问题后阻塞构建或生成工单。这种模式的问题在于,安全知识仍然外在于开发者的日常工作流,工具输出的是警报而非解决方案。
Zscaler的新架构试图改变这种关系。GPT-5.4-Cyber被集成进内部安全SDLC,为开发者提供按需的AI代码审查。由于模型专门针对网络场景调优,它能够理解跨代码、基础设施即代码(IaC)和策略的复杂漏洞模式,而非停留在表面语法检查。更重要的是,它会提出具体的修复步骤,直接嵌入工作流。
「我们不是在给开发者发罚单,而是在每次提交和部署中嵌入安全知识。」Zscaler工程负责人在技术博客中写道。
这种"安全即服务"层的价值在于压缩暴露窗口。漏洞从引入到被发现的时间差,是传统安全模型的致命弱点。据行业研究,平均检测时间(MTTD)在复杂云环境中仍高达数周甚至数月。实时AI审查理论上可以将这个窗口缩短到分钟级——在代码合并前、配置生效前、依赖更新前完成风险拦截。
对使用Zero Trust Exchange的客户而言,这意味着底层平台的韧性提升。Zscaler的云原生代理架构覆盖全球150多个数据中心,处理着海量企业流量。任何平台自身的安全缺陷都可能被放大为大规模供应链风险。将AI深度集成进构建和运行流程,相当于为这个平台建立了免疫系统。
红队与MDR的智能化跃迁
合作的另一块拼图指向更主动的安全能力:AI红队测试和托管检测与响应(MDR)。
红队测试是模拟真实攻击者以检验防御有效性的实践。传统红队依赖专家经验,成本高、周期长、覆盖有限。Zscaler正在将GPT-5.4-Cyber的能力注入其AI红队服务,使自动化攻击模拟能够覆盖更复杂的漏洞组合和横向移动路径。
模型的"攻击链推理"能力在这里发挥关键作用。它可以分析目标环境的配置和依赖关系,生成多步骤的渗透方案,并在执行过程中根据防御响应动态调整策略。这不是简单的自动化脚本执行,而是具备一定战略适应性的模拟对抗。
在MDR侧,OpenAI辅助的调查功能改变了安全运营中心(SOC)的工作模式。传统事件调查需要分析师手动关联分散的日志源、重建攻击时间线、判断影响范围。新系统允许分析师用自然语言描述调查意图,由模型自动完成数据关联、模式识别和假设验证。
一个具体场景:当端点检测系统告警某台服务器存在可疑进程时,分析师可以询问:"这个进程与哪些网络连接相关?是否涉及特权升级?过去30天内是否有类似行为模式?"模型会跨域检索身份、网络、端点和云工作负载的遥测数据,返回结构化的分析结论。
这种交互范式的转变意义重大。企业安全团队长期面临人才短缺和告警疲劳的双重压力。据ISC² 2024年报告,全球网络安全人才缺口超过400万。AI辅助调查不是取代分析师,而是将他们的注意力从繁琐的数据筛选转移到高价值的决策判断。
信任基础设施的深层博弈
这次合作还有一个容易被忽视的维度:它重新定义了"信任"在技术栈中的位置。
OpenAI设计TAC计划的核心考量是风险控制。GPT-5.4-Cyber这类模型具备强大的攻击性分析能力——可以发现漏洞、推理利用链、生成渗透方案。如果落入恶意行为者手中,可能被用于加速攻击而非防御。
TAC的分级准入机制试图解决这个问题:通过身份验证、使用策略和执行保障措施,将高级能力限定在可信防御方范围内。Zscaler作为零信任安全领域的头部厂商,自然成为理想的合作对象——其整个商业模式建立在"永不信任,始终验证"的原则之上。
这种双向选择揭示了AI安全领域的一个深层结构:随着模型能力逼近甚至超越人类专家,访问控制本身成为关键的安全机制。传统的网络边界防御假设攻击者在外部、防御者在内部;AI时代,能力边界取代了网络边界,成为新的控制平面。
Zscaler的零信任架构恰好适应这种转变。其平台的核心设计是:无论用户、设备还是工作负载位于何处,每次访问都需要经过身份验证、设备健康检查和最小权限授权。将AI能力嵌入这个框架,意味着模型的使用本身也被纳入零信任的治理逻辑——谁在调用、调用什么、用于何种目的,全程可审计、可策略控制。
「让安全行业用AI对抗AI威胁」——OpenAI官方对TAC计划的定位,在这种架构下获得了技术实现路径。
客户视角:从"能不能用AI"到"敢不敢大规模用"
回到企业客户的实际处境,这次合作解决的是一个迫切的战略焦虑。
过去两年,生成式AI的爆发让企业面临两难:一方面,竞争对手正在用AI提升效率、创新产品;另一方面,将敏感数据输入公共AI服务、或在关键系统部署AI代理,带来了前所未有的安全和合规风险。
麦肯锡2024年调研显示,67%的企业将"数据安全和隐私"列为AI采用的首要障碍,超过技术能力和人才短缺。这种担忧并非杞人忧天——已有多个案例显示,员工无意中将机密代码或客户数据粘贴到公共聊天界面,导致信息泄露。
Zscaler与OpenAI的合作提供了一个中间路径:企业无需自行搭建复杂的AI安全基础设施,也无需完全依赖公共服务的"君子协定",而是获得一个经过安全调优、嵌入零信任治理的AI能力层。
具体而言,客户可以通过Zscaler平台获得三类价值:
第一,更安全的AI使用环境。Zero Trust Exchange的架构确保AI交互发生在受控的代理通道中,数据不会意外泄露到企业边界之外。策略引擎可以精细控制哪些用户、在哪些场景下、能够调用何种AI能力。
第二,AI驱动的安全运营升级。无论是开发阶段的代码审查,还是运行阶段的事件调查,客户都能获得OpenAI前沿模型的能力加持,而无需直接处理模型接入的复杂性。
第三,合规和审计友好性。Zscaler作为长期服务企业客户的厂商,其平台设计考虑了SOC 2、ISO 27001、GDPR等合规要求。AI能力的嵌入遵循同样的审计和报告标准,降低了企业的合规负担。
这种"打包"方案的价值在于降低决策门槛。企业不需要在"用AI"和"保安全"之间做零和选择,而是获得一个预设了安全边界的AI加速器。
技术路线的分歧与选择
Zscaler的选择也折射出AI安全领域的路线之争。
当前存在两种主流范式:一种是"工具增强型",将AI作为现有安全产品的功能模块,典型如各SIEM厂商推出的AI助手;另一种是"架构重构型",将AI能力深度嵌入平台的设计原则和运行逻辑。
Zscaler明显倾向于后者。这不是简单的技术偏好,而是与其商业模式的自我强化有关。作为云原生零信任平台,Zscaler的核心竞争力在于全球分布的代理架构、细粒度的访问控制策略引擎、以及海量遥测数据的实时处理能力。AI能力的深度嵌入,进一步放大了这些既有优势——更好的检测需要更多数据,更智能的响应需要更精细的控制平面。
相比之下,传统安全厂商面临更复杂的转型挑战。他们的产品组合往往是收购拼凑而成,数据孤岛和架构异构使得AI难以形成跨产品的协同效应。将AI作为功能模块逐个添加,是更现实的路径,但也可能陷入"每个产品都有AI,但AI之间互不连通"的困境。
这种分化意味着企业客户在选择AI安全方案时,需要评估的不只是单点功能,而是供应商的整体架构是否与AI时代的需求兼容。零信任原则、云原生设计、数据统一平台——这些在AI浪潮之前就已存在的架构特征,正在成为新的竞争分水岭。
行业影响:安全与AI的融合加速
从更宏观的视角看,Zscaler与OpenAI的合作可能是安全行业结构性转变的一个信号。
过去,网络安全和人工智能是相对独立的两个领域。安全厂商关注威胁检测、漏洞管理和合规审计;AI厂商聚焦模型能力、应用场景和算力效率。双方的交集主要在"用AI做安全"这个单向维度——安全厂商采购AI技术增强产品功能。
这种关系正在变得对称和深度。OpenAI主动设计TAC计划、筛选合作伙伴、调优专用模型,表明其将安全视为核心应用场景而非边缘用例。Zscaler则将AI能力纳入平台的核心基础设施层级,而非简单的功能叠加。
这种融合可能催生新的行业格局。一方面,具备云原生架构和数据优势的安全平台厂商,可能成为AI能力向企业渗透的关键通道;另一方面,AI厂商需要建立更精细的信任框架和合作伙伴生态,以负责任地释放模型潜力。
对于企业客户而言,这意味着AI安全采购决策的复杂性上升。他们需要评估的不只是"这个工具有没有AI",而是"这个平台的AI架构是否可持续、可治理、可演进"。供应商的模型接入策略、数据处理方式、以及与安全治理框架的集成深度,都将成为关键考量因素。
未解的问题与开放的前路
任何技术合作都有其边界和不确定性。Zscaler与OpenAI的这次联手也不例外。
模型依赖是首要的结构性风险。GPT-5.4-Cyber的能力边界、更新节奏、以及长期可用性,很大程度上由OpenAI决定。Zscaler虽然获得了早期深度访问权,但这种访问的条款和持续性并未完全公开。如果模型能力出现重大变化,或合作条款调整,Zscaler的平台能力将直接受影响。
竞争动态也值得观察。OpenAI的TAC计划显然不会止步于Zscaler一家。随着更多安全厂商加入,"AI红队"、"AI辅助MDR"等功能可能快速 commoditize(商品化)。Zscaler的先发优势能维持多久,取决于其将模型能力转化为差异化产品体验的速度。
更深层的挑战在于AI安全本身的悖论:用于防御的AI能力,与用于攻击的AI能力,往往共享相同的技术基础。GPT-5.4-Cyber的"攻击链推理"能力,在可信防御者手中是红队利器,在恶意行为者手中则可能成为自动化攻击引擎。TAC计划的分级准入机制能否长期有效,取决于身份验证和监控技术的持续演进。
这些不确定性并不削弱当前合作的价值,但提醒我们以动态视角观察这个领域。AI与安全的融合不是一次性事件,而是一个持续博弈、不断调整的过程。
当零信任架构遇见前沿AI模型,我们看到的不仅是两个技术概念的叠加,而是一种新的安全范式正在成形:信任不再基于网络位置或静态规则,而是基于持续验证、动态适应和智能决策。Zscaler与OpenAI的合作,是这种范式的一次重要实践——它能否成为行业标准,取决于更多企业的选择和验证。
一个值得持续观察的问题是:当AI能力成为基础设施的默认配置,"安全"本身的定义会如何演变?我们是否需要新的框架来评估"AI原生安全"的有效性,而不仅仅是沿用传统指标?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.